philosophie - Daniel Martin

Le déterminisme étendu
pour mieux comprendre et prévoir
Un pont entre science et philosophie
pour la pensée rationnelle
Daniel MARTIN
2
Le déterminisme étendu
pour mieux comprendre et prévoir
Un pont entre science et philosophie
pour la pensée rationnelle
Troisième édition, à jour des découvertes cosmologiques de début 2014
Mise à jour : 08/11/2014
Daniel MARTIN
http://www.danielmartin.eu/contact.htm
3
Remerciements
A Renée Bouveresse, dont la remarquable synthèse de l'œuvre de Karl Popper sur
le rationalisme critique m'a fait gagner un temps précieux, et dont la sympathie m'a
soutenu dans les périodes de doute.
A Hervé Barreau, dont les critiques et suggestions m'ont permis d'éviter bien des
erreurs.
A André Comte-Sponville, dont les textes et les objections m'ont beaucoup fait
réfléchir.
4
Objectifs de ce texte
Ce livre montre d’abord que le déterminisme philosophique ne tient pas ses
promesses lorsqu’il affirme la possibilité de prédire l’avenir et de reconstituer en
pensée le passé.
Il montre ensuite comment les principes de causalité et du déterminisme scientifique
se déduisent par induction de propriétés fondamentales de l’Univers.
Il précise ensuite ces principes, et en étend la définition pour qu’ils régissent les
propriétés d’évolution de toutes les lois de la nature. Ces lois relèvent alors du
déterminisme étendu, que sa définition constructive structure comme une
axiomatique ; on prouve alors son unicité concernant les lois d'évolution.
Le livre montre, enfin, comment le hasard et le chaos n’interviennent dans la nature
que dans des cas précis, tous pris en compte dans le déterminisme étendu, et
comment les limites de prédictibilité proviennent aussi d’imprécisions, de
complexités, d'indéterminations, d'instabilités et de refus de précision de la nature.
La pensée rationnelle ayant besoin de comprendre et de prévoir pour décider, a donc
besoin de connaître le déterminisme étendu. A partir d’avancées scientifiques
récentes en physique quantique et en génétique, le livre montre alors les limites de la
possibilité de prédire des résultats d’évolution et d’obtenir la précision souhaitée.
Le livre tire ensuite les conséquences du déterminisme étendu sur la pensée
rationnelle : malgré son libre arbitre, l’homme reste dominé par des désirs imposés
par son inné, son acquis et son contexte de vie. Le livre explique comment il peut,
malgré tout, suivre les préceptes du rationalisme critique de Karl Popper pour arriver
à des vérités scientifiques, et dans quelle mesure il peut comprendre le monde et se
connaître lui-même. Il montre aussi l’absurdité des 3 types de démonstrations de
l'existence de Dieu, notamment celle basée sur le « principe anthropique ».
Le texte présente aussi deux solutions au vieux problème philosophique de la
« cause première ». L'une basée sur le Big Bang, l'autre sur une conjecture
restreignant des contraintes des définitions du déterminisme et de la causalité.
Ce livre, qui se veut aussi facile à lire que possible, est donc une contribution à la
pensée rationnelle destinée aux intellectuels de culture peu scientifique qui
souhaitent profiter de connaissances à jour en matière de physique quantique, de
cosmologie, d’informatique et de génétique.
Le texte complet étant long, environ 599 pages [Livre], il est conseillé de lire d’abord
les 2 textes d'introduction : "Principes de logique" et "Hasard, chaos et
déterminisme", publiés aussi au début de la 3e partie et qu'on pourra alors sauter.
[Livre] "Le déterminisme étendu pour mieux comprendre et prévoir
Un pont entre science et philosophie pour la pensée rationnelle" (599 pages)
http://www.danielmartin.eu/Philo/Determinisme.pdf (gratuit)
Introduction 1 :"Principes de logique : causalité, homogénéité, raison suffisante, etc."
http://www.danielmartin.eu/Philo/CausalitePPS.pdf (gratuit)
Introduction 2 : "Hasard, chaos et déterminisme : les limites des prédictions"
(63 pages environ) - http://www.danielmartin.eu/Philo/Resume.pdf (gratuit)
5
Conseils de lecture
Sur les formules mathématiques
Ce texte contient beaucoup de formules mathématiques pour être aussi précis que
possible ; le lecteur qui a les connaissances scientifiques nécessaires y trouvera les
justifications de certaines affirmations concernant le déterminisme. Mais la lecture et la
compréhension de ces formules ne sont pas indispensables à celle du texte ; le lecteur
qui n'a pas les connaissances nécessaires ou simplement pas envie de lire ces formules
peut les sauter.
Sur le style du texte et sa structure
Un texte philosophique est souvent structuré comme un roman avec peu de sous-titres
intermédiaires, laissant au lecteur le soin de comprendre où il en est dans
l'enchaînement des idées. Ce texte-ci, au contraire, est fait de paragraphes courts et
fortement structuré sous forme de hiérarchie de titres et sous-titres, comme un rapport
ou un cours. Cela permet au lecteur de bien comprendre le sujet d'un paragraphe donné
et de retrouver rapidement un passage déjà lu.
Sur la lecture à l'écran
En format PDF, ce texte est fait pour pouvoir aussi être lu sur un écran d'ordinateur en
profitant des nombreux hyperliens donnant accès par simple clic à une explication de
terme, un complément d'information ou une référence bibliographique sur Internet ; un
autre clic permettra ensuite de revenir au point de départ. La table des matières ellemême est un ensemble d'hyperliens permettant d'atteindre directement un passage.
Enfin, la recherche d'un mot sur écran est bien plus facile et rapide que sur du papier, et
l'extraction de passages du texte pour insertion dans un autre texte est possible, alors
qu'un texte sur papier exige un recopiage ou une numérisation.
Les références dont le nom commence par un D comme [D1] sont à la fin de la 1re
partie ; celles dont le nom commence par un M comme [M4] sont à la fin de la 2e partie ;
celles qui sont des nombres entiers comme [5] sont à la fin de la 3e partie.
Pour éviter de lire ce que vous savez déjà
Le déterminisme étendu sujet de ce livre fait l'objet de la 3 e partie de l'ouvrage. Comme
le déterminisme s'appuie sur la doctrine matérialiste, la définition et les implications du
matérialisme et de son opposé, le spiritualisme, sont résumées dans la 2e partie. Et
comme le débat entre matérialistes et spiritualistes aborde l'existence de Dieu, les 3
types d'arguments logiques en faveur de cette existence apportés au cours des siècles
sont dans la 1re partie. Donc :

Si vous connaissez les 3 types d'arguments logiques invoqués au cours des siècles
pour prouver l'existence de Dieu - ou simplement si ce problème ne vous intéresse
pas - sautez sans hésiter la 1re partie de l'ouvrage ; elle ne fait que rappeler ces
« preuves » et en montrer l'absence de valeur.

Si vous connaissez les définitions du matérialisme et du spiritualisme, ainsi que les
arguments invoqués par les partisans de chacune de ces deux doctrines, sautez
sans hésiter la 2e partie de l'ouvrage, qui ne fait que rappeler ces définitions et
arguments avant d'introduire le déterminisme.
Si vous n'avez pas lu les 2 textes d'introduction, il est conseillé de lire la 3 e partie de
l'ouvrage à partir du début, parce qu'elle amène beaucoup de lecteurs à remettre en
question ce qu'ils savent du déterminisme, du hasard et du chaos.
6
Table des matières
1. Où en sont les preuves de l'existence de Dieu ? ......................... 19
1.1 Les définitions d'André Comte-Sponville et Durkheim .................................20
1.2 Raisons psychologiques de croire en Dieu, science et laïcité .....................21
1.3 L'homme conçoit Dieu à son image ................................................................23
1.3.1
Une contradiction fondamentale qui explique la volonté de prouver
l'existence de Dieu ............................................................................................... 23
1.4 Comment s'assurer de l'existence de Dieu ? .................................................25
1.4.1
1.4.2
1.4.3
1.4.4
Les preuves cosmologiques ............................................................................... 25
Les preuves ontologiques ................................................................................... 26
La preuve téléologique ........................................................................................ 27
La raison morale de Kant .................................................................................... 28
1.5 Des preuves sans valeur ..................................................................................30
1.5.1
1.5.1.1
1.5.1.2
1.5.1.3
1.5.2
1.5.2.1
1.5.2.2
1.5.2.3
1.5.2.4
1.5.2.5
1.5.2.6
1.5.2.7
1.5.3
1.5.3.1
1.5.3.2
1.5.3.3
1.5.3.4
1.5.4
Faiblesses de la causalité des preuves cosmologiques ................................... 30
La contingence est une hypothèse stérile .............................................30
Pas de preuve des qualités attribuées à Dieu .......................................30
Conclusion sur les preuves cosmologiques ..........................................30
Faiblesse des preuves ontologiques .................................................................. 30
Comprendre l’erreur des preuves logiques de l'existence de Dieu ........31
Un exemple tiré de l'arithmétique ..........................................................32
Un exemple cosmique et un exemple biologique ..................................32
Généralisation : danger des raisonnements par induction ou analogie .33
Exemple mathématique de la puissance d’invention de l’esprit humain 33
L'impossible universalisme culturel ou religieux ....................................35
Conséquences de la multiplicité des religions .......................................36
Faiblesse de la preuve téléologique ................................................................... 36
Certains phénomènes de la vie résultent du logiciel génétique .............37
Faiblesse des arguments créationnistes ...............................................38
Psychologie du créationnisme ...............................................................39
La notion d'un Dieu créateur intelligent est contradictoire .....................39
Il faut veiller à ne manipuler que des concepts représentables ....................... 40
1.6 Agnosticisme et athéisme ................................................................................41
1.6.1
1.6.2
1.6.3
Le pari de Pascal.................................................................................................. 41
Athéisme, positivisme et altruisme .................................................................... 42
Existe, n'existe pas ou existe autrement ?......................................................... 42
1.7 Conclusions ......................................................................................................44
1.8 Références ........................................................................................................45
2. Matérialisme et spiritualisme ......................................................... 47
2.1 Matérialisme et spiritualisme : définitions ......................................................48
2.1.1
2.1.2
2.1.3
2.1.4
Définition succincte du matérialisme ................................................................. 48
Définition succincte du spiritualisme ................................................................. 48
Ce qui oppose matérialistes et spiritualistes – Réalisme et idéalisme ............ 48
Qu'est-ce qui précède l'autre : l'esprit ou la matière ? ...................................... 50
2.2 Vie biologique, matérialisme et spiritualisme ................................................52
2.2.1
2.2.2
Explication des phénomènes constatés par une finalité supérieure ............... 52
L'opposition entre matérialistes et spiritualistes .............................................. 53
7
2.2.3
Explication matérialiste et niveaux d'abstraction .............................................. 54
2.3 Arguments des spiritualistes contre le matérialisme ....................................55
2.3.1
2.3.2
La preuve téléologique ........................................................................................ 55
Le reproche de contredire le deuxième principe de la thermodynamique ...... 55
2.3.2.1
2.3.2.2
Notion d'entropie ...................................................................................55
Entropie de Boltzmann, entropie statistique et entropie d'information ...56
2.3.2.2.1
Comprendre le deuxième principe de la thermodynamique
2.3.2.3
2.3.2.4
2.3.2.5
Etre vivant et thermodynamique ............................................................59
L'objection des spiritualistes et la réponse de Prigogine .......................59
Les scientifiques spiritualistes dont l'intuition étouffe la raison ..............61
2.3.3
59
Créationnisme contre évolutionnisme : le débat ............................................... 61
2.3.3.1
Darwin et le rôle du hasard dans l'évolution ..........................................61
2.3.3.2
Arguments des scientifiques spiritualistes .............................................63
2.4 Comparaison du matérialisme et du spiritualisme ........................................66
2.4.1
2.4.1.1
2.4.2
2.4.3
2.4.4
2.4.5
2.4.6
Il faut adopter un concept de réalité utile........................................................... 66
Convergence de la connaissance scientifique : exemple de l'astronomie66
Le concept même de réalité ultime (initiale) est dangereux ............................. 67
Objectivité ou subjectivité ................................................................................... 68
Comment peut-on être à la fois intelligent et spiritualiste ? ............................. 69
Esprits intuitifs, esprits rationnels et foi en Dieu .............................................. 70
Limite des explications rationnelles. Matérialisme et morale ........................... 70
2.5 Matérialisme et spiritualisme ne peuvent être ni démontrés ni infirmés .....71
2.6 La critique nietzschéenne ................................................................................72
2.7 Matérialisme et déterminisme ..........................................................................75
2.7.1
Résumé sur le matérialisme et prise de position .............................................. 75
2.8 Références ........................................................................................................79
3. Le déterminisme étendu - une contribution pour la pensée
rationnelle ......................................................................................... 82
3.1 Prédictions d'évolutions ..................................................................................83
3.1.1
3.1.1.1
3.1.2
3.1.2.1
3.1.2.2
3.1.2.3
3.1.3
3.1.3.1
3.1.3.2
3.1.3.3
3.1.3.4
3.1.3.5
3.1.3.6
3.1.3.7
3.1.4
3.1.4.1
3.1.4.2
3.1.4.3
3.1.5
3.1.5.1
Définition, promesses et critique du déterminisme philosophique ................. 83
Le déterminisme philosophique est contredit par des faits ....................84
Le postulat de causalité ...................................................................................... 85
Définition du postulat de causalité .........................................................85
Causalité, réalisme et idéalisme ............................................................86
Causalité, nécessité et explication du monde........................................86
Principe de raison suffisante .............................................................................. 87
Les 4 domaines régis par le principe de raison suffisante .....................88
Principe de raison suffisante du devenir - Déterminisme ......................89
Principe de raison suffisante du connaître ............................................89
Principe de raison suffisante de l'être (possibilité de représentation) ....90
Principe de raison suffisante de vouloir, ou loi de la motivation ............91
Réciproques d'une raison suffisante d'évolution....................................92
Raison suffisante et chaîne de causalité ...............................................92
Principe d'homogénéité ...................................................................................... 92
Seul l'esprit humain peut ignorer le principe d'homogénéité..................93
Déterminisme et principe d'homogénéité ..............................................94
Domaine de vérité d'une science et principe d'homogénéité .................95
Le déterminisme scientifique .............................................................................. 95
Règle de stabilité ...................................................................................95
8
3.1.5.2
3.1.5.3
Importance de la vitesse et de l'amplitude d'une évolution ....................96
Définition du déterminisme scientifique .................................................97
3.1.5.3.1
3.1.5.3.2
Déterminisme des évolutions régies par des équations différentielles
Déterminisme des formules, algorithmes et logiciels
3.1.5.4
Déterminisme scientifique et obstacles à la prédiction ..........................99
98
98
3.1.5.4.1
L'ignorance
100
3.1.5.4.2
L'imprécision
100
3.1.5.4.3
La complexité
105
3.1.6
Déterminisme statistique de l'échelle macroscopique.................................... 113
3.1.7
Ensemble de définition d'une loi déterministe ................................................ 113
3.1.7.1
3.1.7.2
3.1.7.3
3.1.8
Structure.............................................................................................. 113
Ensemble de définition d'une loi déterministe ..................................... 116
Une erreur de certains philosophes..................................................... 117
Hasard ................................................................................................................ 117
3.1.8.1
3.1.8.2
3.1.8.3
3.1.8.4
Le hasard dans l'évolution selon une loi de la nature .......................... 117
Définition par conformité à une loi de distribution statistique ............... 119
Définition de René Thom ..................................................................... 119
Définition par rencontre de chaînes de causalité indépendantes Hasard par ignorance .......................................................................... 119
3.1.8.4.1
3.1.8.4.2
Impossibilité d'existence de chaînes de causalité indépendantes
Rencontre imprévisible de chaînes de causalité distinctes
3.1.8.5
3.1.8.6
3.1.8.7
3.1.8.8
Définition par la quantité d'information ................................................ 121
Des suites et ensembles sont-ils aléatoires ?...................................... 121
Hasard postulé et hasard prouvé ........................................................ 122
Différences entre déterminisme statistique, fluctuations quantiques et
hasard ................................................................................................. 123
Hasard et niveau de détail d'une prédiction ......................................... 124
Premières conclusions sur le hasard et la prédictibilité ....................... 125
Différences entre hasard, imprécision et indétermination en Mécanique
quantique ............................................................................................ 125
Résumé des conclusions sur le hasard dans l'évolution naturelle ....... 126
Evolutions attribuées à tort au hasard ................................................. 127
Conséquences multiples d'une situation donnée - Décohérence ........ 128
Il faut admettre les dualités de comportement ..................................... 128
3.1.8.9
3.1.8.10
3.1.8.11
3.1.8.12
3.1.8.13
3.1.8.14
3.1.8.15
3.1.9
120
120
Chaos.................................................................................................................. 129
3.1.9.1
3.1.9.2
3.1.9.3
3.1.9.4
3.1.9.5
3.1.9.6
3.1.9.7
3.1.9.8
3.1.9.9
Définition ............................................................................................. 129
Prédictibilité des phénomènes chaotiques – Chaos déterministe........ 130
Conditions d'apparition d'une évolution chaotique – Série de Fourier . 130
Fluctuations faussement aléatoires d'un phénomène apériodique ...... 131
Fluctuations d'énergie dues au principe d'incertitude de Heisenberg .. 133
Fluctuations de variables macroscopiques dues à des variations
microscopiques ................................................................................... 133
Amplification génétique et évolution du vivant vers la complexité ....... 134
Domaines où on connaît des évolutions chaotiques ........................... 135
Exemples de phénomènes chaotiques................................................ 135
3.1.9.9.1
Problème des 3 corps
135
3.1.9.9.2
Sensibilité d'une évolution aux conditions initiales - Chaos déterministe
137
3.1.10 Turbulence ......................................................................................................... 138
3.1.11 Le déterminisme étendu .................................................................................... 139
3.1.11.1
Propriétés des lois de l'Univers ........................................................... 139
3.1.11.1.1
3.1.11.1.2
Uniformité des lois de la nature
Postulat de causalité
139
140
9
3.1.11.2
Définition du déterminisme étendu ...................................................... 141
3.1.11.2.1
3.1.11.2.2
3.1.11.2.3
3.1.11.2.4
Définition constructive du déterminisme étendu
Validité de cette approche
Universalité du déterminisme étendu – Monisme - Mécanisme
Limites de la règle de stabilité du déterminisme
3.1.11.3
Stabilité des lois d'évolution et situations nouvelles ............................ 145
3.1.11.3.1
3.1.11.3.2
3.1.11.3.3
3.1.11.3.4
Apparition d'une loi d'évolution
Restriction du postulat de causalité
Exemples d'apparitions
Conséquences philosophiques de la possibilité d'apparitions
3.1.11.4
Conclusions sur le déterminisme étendu et la causalité ...................... 147
3.1.11.4.1
3.1.11.4.2
Déterminisme étendu : un principe et un objectif
Causalité, déterminisme étendu et prédictions d'évolution physique
142
142
143
143
145
145
146
147
147
147
3.2 Imprédictibilité de la pensée humaine .......................................................... 151
3.2.1
3.2.2
3.2.3
La barrière de complexité .................................................................................. 152
Rigueur des raisonnements déductifs ............................................................. 153
Champ d'application du déterminisme et de la causalité ............................... 154
3.3 Compléments philosophiques sur le déterminisme .................................... 155
3.3.1
3.3.2
3.3.2.1
3.3.2.2
3.3.2.3
3.3.2.4
3.3.3
3.3.3.1
3.3.3.2
3.3.3.3
3.3.3.4
3.3.3.5
3.3.3.6
3.3.3.7
3.3.4
Trois cas de déterminisme ................................................................................ 155
Symétrie temporelle et réversibilité du déterminisme traditionnel ................ 155
Différence entre symétrie temporelle et réversibilité ............................ 156
Phénomène irréversible ...................................................................... 157
Exemple de loi symétrique par rapport au temps et réversible ............ 158
Système conservatif ou dissipatif – Force conservative ou dissipative159
Portée du déterminisme : locale ou globale .................................................... 159
Principe de moindre action de Maupertuis .......................................... 160
Principe de Fermat (plus court chemin de la lumière) ......................... 160
Quasi-cristaux ..................................................................................... 160
Variables complémentaires ................................................................. 161
Conclusion sur le déterminisme global ................................................ 161
Caractère humain, artificiel, de la notion d'échelle .............................. 162
Déterminisme des algorithmes et calculabilité..................................... 162
Compléments sur le déterminisme philosophique .......................................... 162
3.3.4.1
Critique de l'enchaînement des causes et des conséquences ............ 163
3.3.4.1.1
3.3.4.1.2
Une situation peut être précédée ou suivie de plusieurs lois d'évolution.
163
Les transformations irréversibles contredisent le déterminisme philosophique164
3.3.4.2
Déterminisme, mesures et objectivité.................................................. 164
3.3.4.3
Déterminisme et libre arbitre de l'homme ............................................ 165
3.3.4.4
Conclusions sur le déterminisme traditionnel ...................................... 165
3.4 Pourquoi ce texte et les efforts qu'il suppose .............................................. 167
3.4.1
3.4.2
Inconvénients de l'ignorance, avantages de la connaissance ....................... 167
Limite d'ambition de ce texte ............................................................................ 168
3.5 Le déterminisme en physique ....................................................................... 171
3.5.1
3.5.1.1
Système et état .................................................................................................. 171
Degrés de liberté d'un système ........................................................... 171
3.5.1.1.1
Equipartition de l'énergie entre les degrés de liberté
172
3.5.2
Espace des phases – Stabilité des lois physiques d'évolution ...................... 172
3.5.2.1
Représentation de l'évolution d'un système ........................................ 176
3.5.2.1.1
Evolution d'un système représentée par des équations différentielles
3.5.2.2
3.5.2.3
Lignes de force d'un espace des phases et unicité de l'évolution ....... 177
Stabilité de l'évolution d'un système conservatif .................................. 178
10
176
3.5.2.4
3.5.2.5
3.5.2.6
3.5.2.7
3.5.2.8
3.5.2.9
3.5.2.10
3.5.2.11
3.5.3
Considérations sur la prévisibilité de l'évolution d'un système ............ 178
Système dissipatif par frottements - Attracteur .................................... 179
Système dissipatif périodique avec échange d'énergie – Cycle limite . 179
Système à évolution quasi périodique ................................................. 181
Déterminisme et prédictibilité des systèmes – Autocorrélation............ 181
Imprédictibilité et hasard ..................................................................... 182
Systèmes apériodiques – Attracteurs étranges ................................... 182
Changement de loi d'évolution par bifurcation – Valeur critique .......... 184
Etat quantique d'un système ............................................................................ 185
3.5.3.1
3.5.3.2
3.5.3.3
3.5.3.4
3.5.3.5
3.5.4
3.5.5
Vecteur d'état ...................................................................................... 186
Espace des états ................................................................................. 186
Réalité physique et représentation dans l'espace des états ................ 186
Espace des phases d'un champ et espace des états associé ............. 187
Equipartition de l'énergie dans un champ – Stabilité des atomes ....... 187
Les contradictions de la physique traditionnelle et de son déterminisme .... 188
Des forces physiques étonnantes .................................................................... 189
3.5.5.1
3.5.5.2
3.5.6
Evolution et transformation .................................................................. 189
L'évolution nécessite une interaction avec échange d'énergie ............ 190
1ère extension du déterminisme : fonctions d'onde et pluralité des états ...... 191
3.5.6.1
3.5.6.2
3.5.6.3
Notions de Mécanique quantique ........................................................ 191
De la contingence à la probabilité ....................................................... 192
Extension du déterminisme aux résultats imprécis et probabilistes ..... 193
3.5.6.3.1
3.5.6.3.2
3.5.6.3.3
3.5.6.3.4
3.5.6.3.5
3.5.6.3.6
Le déterminisme statistique, complément du déterminisme scientifique
Différence entre déterminisme statistique et hasard pur
Dualité onde-particule, déterminisme dual et ondes de matière
Trajectoire d'un corpuscule
Théorie de la résonance chimique
Conséquences pour le déterminisme
3.5.6.4
Equation fondamentale de la Mécanique quantique (Schrödinger) ..... 202
3.5.6.4.1
3.5.6.4.2
Impossibilité de décrire des phénomènes sans symétrie temporelle
Inadaptation à la gravitation et à son espace courbe relativiste
3.5.6.5
3.5.7
3.5.7.1
3.5.7.2
3.5.7.3
3.5.7.4
3.5.8
193
194
195
196
200
200
204
205
Etats finaux d'un système macroscopique .......................................... 205
e
2 extension du déterminisme : superpositions et décohérence ................... 206
Superposition d'états et décohérence ................................................. 206
Superposition de trajectoires ............................................................... 207
Conclusions sur la superposition d'états ou de trajectoires ................. 207
Déterminisme arborescent à univers parallèles de Hugh Everett III .... 209
3e extension du déterminisme : quantification et principe d'incertitude ....... 212
3.5.8.1
3.5.8.2
3.5.8.3
3.5.8.4
Quantification des niveaux d'énergie et des échanges d'énergie ........ 212
Les trois constantes les plus fondamentales de l'Univers ................... 212
Position et vitesse d'une particule ....................................................... 213
Paquet d'ondes et étalement dans le temps ........................................ 213
3.5.8.4.1
3.5.8.4.2
3.5.8.4.3
Description d'un paquet d'ondes de probabilité
Etalement du paquet d'ondes de position d'une particule
Cas d'une onde de photon
3.5.8.5
3.5.8.6
Incertitudes sur les déterminations simultanées de 2 variables........... 215
Remarques sur l'incertitude et l'imprécision ........................................ 217
3.5.8.6.1
Origine physique de l'incertitude de Heisenberg lors d'une mesure
3.5.8.7
3.5.8.8
3.5.8.9
Incertitude contextuelle ....................................................................... 219
Incertitude due à l'effet Compton ......................................................... 219
Mesures, incertitude et objectivité ....................................................... 220
3.5.8.9.1
Toute mesure de physique quantique modifie la valeur mesurée
11
213
214
215
218
220
3.5.8.9.2
3.5.8.9.3
3.5.8.9.4
3.5.8.9.5
3.5.8.9.6
3.5.8.9.7
3.5.8.9.8
Mesure souhaitée et mesure effectuée : exemple
Copie d'un état quantique. Clonage par copie moléculaire
Mesure grâce à un grand nombre de particules
Conclusions sur la réalité objective et la réalité mesurable en physique
quantique
Contraintes de non-indépendance de variables
Objectivité des mesures
La « mathématicophobie » et l'ignorance
3.5.8.10
Quantification des interactions et conséquences sur le déterminisme 229
3.5.8.10.1
3.5.8.10.2
3.5.8.10.3
3.5.8.10.4
3.5.8.10.5
3.5.8.10.6
Différence entre quantification et imprécision
Echanges quantifiés d'énergie et conservation de l'énergie
Conséquences de la quantification des interactions : extension du
déterminisme
Quantification des vibrations - Phonons et frottements
Effets mécaniques et thermiques de la lumière
Effets photoélectriques
3.5.8.11
Conséquences des diverses imprécisions sur le déterminisme .......... 232
3.5.9
220
222
222
223
223
225
227
229
229
230
230
231
232
4e extension du déterminisme : lois de conservation et symétries ................ 235
3.5.9.1
3.5.9.2
3.5.9.3
3.5.9.4
Invariance de valeurs, invariance de lois physiques............................ 235
Invariance de lois physiques par rapport à l'espace et au temps ........ 235
Invariances et lois de conservation (lois fondamentales de la physique)238
Un vide plein d'énergie ........................................................................ 239
3.5.9.4.1
3.5.9.4.2
3.5.9.4.3
3.5.9.4.4
3.5.9.4.5
Le vide de la physique quantique
Champ et boson de Higgs
Distance, temps, densité et masse de Planck
Le vide de l'espace cosmique
Expansion de l'Univers visible
3.5.9.5
3.5.10
239
241
242
244
244
Conclusions sur les symétries et lois de conservation ........................ 246
5e extension du déterminisme : complexité, imprévisibilité, calculabilité ..... 247
3.5.10.1
Combinaison de nombreux phénomènes déterministes ...................... 247
3.5.10.1.1
Mécanique statistique
3.5.10.2
3.5.10.3
Déterminisme + complexité = imprévisibilité........................................ 249
Modélisation des systèmes complexes, notamment ceux du vivant.... 250
3.5.10.3.1
Des avancées très prometteuses en matière de modélisation
3.5.10.4
3.5.10.5
3.5.10.6
Analyse statistique de systèmes complexes ....................................... 252
Complexité et décisions médicales ..................................................... 253
Résultats remarquables de certains processus calculables ................ 254
3.5.10.6.1
3.5.10.6.2
Algorithme de calcul de Pi - Suite aléatoire de nombres entiers
Dynamique des populations
3.5.10.7
Déterminisme et durée ........................................................................ 258
3.5.10.7.1
3.5.10.7.2
3.5.10.7.3
Nombres réels et problèmes non calculables
Il y a infiniment plus de réels non calculables que de réels calculables
Propositions indécidables
3.5.10.8
Calculabilité, déterminisme et prévisibilité ........................................... 263
3.5.10.8.1
3.5.10.8.2
3.5.10.8.3
3.5.10.8.4
Calculabilité d'une prédiction
Phénomènes déterministes à conséquences imprévisibles et erreurs
philosophiques
Critique de la position de Popper sur le déterminisme
Calculabilité par limitations et approximations
3.5.10.9
3.5.10.10
Déterminisme et convergence des processus et théories ................... 271
Logique formelle. Calcul des propositions. Calcul des prédicats ......... 272
3.5.10.10.1
3.5.10.10.2
Logique formelle et logique symbolique
Calcul des propositions
249
12
251
254
256
259
262
262
264
266
266
271
272
274
3.5.10.10.3
Calcul des prédicats
3.5.10.11
3.5.10.12
3.5.10.13
3.5.10.14
3.5.10.15
Problèmes insolubles. Théorème de Fermat. Equations diophantiennes276
Certitude de l'existence d'une démonstration dans une axiomatique .. 276
Génération de nombres "aléatoires" avec une formule déterministe ... 277
Attracteurs multiples ............................................................................ 278
« Accidents » de la réplication du génome et évolution vers la
complexité ........................................................................................... 279
Approche heuristique du déterminisme ............................................... 281
3.5.10.16
3.5.11
275
6e extension du déterminisme : irréversibilité ................................................. 282
3.5.11.1
3.5.11.2
3.5.11.3
3.5.11.4
3.5.11.5
Evolution unidirectionnelle du temps ................................................... 282
Radioactivité et stabilité des particules atomiques ou nucléaires ........ 283
L'irréversibilité est une réalité, pas une apparence ............................. 285
Décroissance de l'entropie. Structures dissipatives. Auto-organisation285
Programme génétique et déterminisme .............................................. 287
3.5.11.5.1
3.5.11.5.2
3.5.11.5.3
3.5.11.5.4
3.5.11.5.5
3.5.11.5.6
Gènes et comportement humain
Renouvellement biologique et persistance de la personnalité
Evolution du programme génétique
Evolution d'une population
Evolution due à une modification de l'expression de gènes
Conclusion sur le déterminisme génétique
3.5.11.6
Vie, organisation, complexité et entropie ............................................. 293
3.5.11.6.1
3.5.11.6.2
3.5.11.6.3
Apparition de la vie et évolution des espèces
Preuves de l'évolution darwinienne
L'obstination des tenants du créationnisme
3.5.11.7
Effondrement gravitationnel et irréversibilité. Trous noirs .................... 296
3.5.11.7.1
3.5.11.7.2
3.5.11.7.3
3.5.11.7.4
3.5.11.7.5
3.5.11.7.6
3.5.11.7.7
3.5.11.7.8
3.5.11.7.9
3.5.11.7.10
3.5.11.7.11
3.5.11.7.12
Principe d'exclusion de Pauli
La masse limite de Chandrasekhar - Supernova
Les étoiles à neutrons
Les trous noirs
Masses et dimensions dans l'Univers
Attraction gravitationnelle au voisinage d'une étoile effondrée
Déroulement dans le temps de la chute d'un corps vers un trou noir
Irréversibilité des fusions stellaires et d'un effondrement gravitationnel
Caractéristiques d'un trou noir
Et en plus, un trou noir s'évapore !
Quantité d'information dans un volume délimité par une surface
Surface nécessaire pour décrire une évolution - Principe holographique
3.5.11.8
Le Big Bang, phénomène irréversible ................................................. 310
3.5.12
3.5.13
294
295
296
297
298
299
300
301
302
305
305
306
309
309
310
Univers à plus de 4 dimensions ........................................................................ 311
7e extension du déterminisme : Relativité, écoulement du temps ................. 312
3.5.13.1
3.5.13.2
3.5.14
288
288
290
291
292
293
Relativité et irréversibilité .................................................................... 314
Particules virtuelles. Electrodynamique quantique .............................. 315
Attitude face au déterminisme .......................................................................... 316
3.5.14.1
Conséquences des lois de la nature sur le déterminisme ................... 317
3.5.14.1.1
3.5.14.1.2
3.5.14.1.3
3.5.14.1.4
3.5.14.1.5
3.5.14.1.6
3.5.14.1.7
3.5.14.1.8
3.5.14.1.9
Validité des lois de la Mécanique quantique à l'échelle macroscopique
Le déterminisme étendu peut abolir les distances et les durées
Multiplicité des conséquences possibles
Imprévisibilité de l'évolution et de l'état final
Difficulté de préciser la situation de départ ou le processus
Impossibilité de remonter l'arborescence de causalité
Irréversibilité
Relativité
Matérialisme et déterminisme des lois du vivant
13
317
320
320
321
322
322
323
323
323
3.5.14.2
Attitude recommandée face au déterminisme ..................................... 324
3.5.14.2.1
3.5.14.2.2
3.5.14.2.3
3.5.14.2.4
3.5.14.2.5
Critique des méthodes de réflexion de quelques philosophes français
La liberté d'esprit et d'expression
L'ouverture d'esprit
Une loi est toujours vraie, elle ne peut être probable
Le « principe anthropique »
324
326
326
327
328
3.6 Niveaux d'abstraction et déterminisme ........................................................ 332
3.6.1
3.6.2
3.6.3
Densité et profondeur d'abstraction ................................................................. 332
Compréhension par niveaux d'abstraction ...................................................... 334
Penser par niveaux d'abstraction ..................................................................... 335
3.6.3.1
3.6.3.2
3.6.3.3
3.6.3.4
3.6.4
La machine de Turing.......................................................................... 336
Hiérarchies des langages de l'informatique ......................................... 336
Penser la complexité par niveaux hiérarchiques ................................. 337
Complexité et processus d'abstraction et de mémorisation ................. 338
Niveaux d'information biologique et déterminisme génétique ....................... 340
3.6.4.1
3.6.4.2
3.6.4.3
3.6.4.4
3.6.4.5
3.6.4.6
L'information du logiciel génétique ...................................................... 340
Etres vivants artificiels définis à partir de leur seul code génétique..... 341
Objections spiritualistes et leur réfutation ............................................ 341
A chaque niveau fonctionnel son niveau logiciel ................................. 342
Critères de valeur et d'efficacité, et mécanismes d'évaluation ............ 343
Une signalisation permanente dans le cerveau ................................... 344
3.6.4.6.1
Hiérarchie logicielle de la pensée - Une erreur des philosophes
3.6.4.7
3.6.4.8
3.6.4.9
3.6.4.10
3.6.4.11
3.6.4.12
Les deux niveaux du déterminisme physiologique .............................. 347
Reconnaissance de formes, structures, processus et intentions ......... 347
Intuition d'abord, justification après ..................................................... 349
Evaluation permanente parallèle de situations hypothétiques ............. 350
"Le monde comme volonté et représentation" de Schopenhauer........ 350
Mémorisation et acquisition d'expérience - Déterminisme culturel ...... 351
3.6.4.12.1
3.6.4.12.2
3.6.4.12.3
Mécanismes physiologiques de la mémoire
Acquisition d'expérience
La mémoire sélective
3.6.4.13
3.6.4.14
Désirs et satisfaction artificiels. Drogues ............................................. 355
Des pensées peuvent aussi se comporter comme des drogues ......... 355
3.6.5
345
351
352
354
Mécanismes psychiques non algorithmiques ou imprévisibles .................... 356
3.6.5.1
Définitions............................................................................................ 356
3.6.5.1.1
3.6.5.1.2
Mécanisme psychique algorithmique
Mécanisme psychique déterministe
3.6.5.2
La conscience ..................................................................................... 358
3.6.5.2.1
3.6.5.2.2
3.6.5.2.3
3.6.5.2.4
3.6.5.2.5
Quelques rappels
Conscience et action de l'esprit sur la matière
Conscience et pensée non algorithmique
Conclusion sur le caractère non-algorithmique et non-déterministe de la
conscience
La pensée naît-elle du corps avec son cerveau ?
3.6.5.3
Le modèle informatique de l'homme.................................................... 364
3.6.5.3.1
3.6.5.3.2
3.6.5.3.3
3.6.5.3.4
3.6.5.3.5
3.6.5.3.6
3.6.5.3.7
La pensée en tant que processus d'interprétation
Cognition computationnelle et cognition dynamique
Modèle logiciel à couches du psychisme
Transcendance avec et sans caractère surnaturel
Le fonctionnement de la conscience n'est pas souvent déterministe
Autres raisonnements humains inaccessibles à un ordinateur
Le besoin de tromper ses adversaires. Les deux types d'incertitude
14
356
357
358
359
360
363
363
364
365
366
366
367
367
368
3.6.5.3.8
Recherches sur les stratégies de bluff et décision en ambiance d'incertitude369
3.6.5.4
3.6.5.5
Ne pas confondre comportements imprévisibles et libre arbitre .......... 370
Ne pas confondre aptitude à transgresser les règles et libre arbitre ... 370
3.6.6
3.6.7
3.6.7.1
3.6.7.2
3.6.8
3.6.8.1
3.6.9
3.6.10
Difficulté d'expliquer un comportement macroscopique à partir de
phénomènes au niveau atomique ..................................................................... 371
Déterminisme lors d'un changement de niveau ou d'échelle ......................... 372
Phénomènes naturels ......................................................................... 372
Phénomènes artificiels ........................................................................ 373
Autonomie des niveaux et compréhension holistique .................................... 374
Holisme ............................................................................................... 374
Différences entre représentations mentales .................................................... 375
Complexité, ouverture d'esprit et causes occultes ......................................... 377
3.7 Le déterminisme du vivant ............................................................................. 381
3.7.1
3.7.2
3.7.3
3.7.4
Définitions du vivant .......................................................................................... 381
Etres vivants et déterminisme .......................................................................... 381
Possibilité thermodynamique d'une complexification naturelle .................... 381
Modélisation informatique/physiologique du vivant ....................................... 382
3.7.4.1
Transmission nerveuse : un mécanisme tout-ou-rien .......................... 382
3.7.4.1.1
3.7.4.1.2
3.7.4.1.3
3.7.4.1.4
Principe
Fonctionnement effectif
Parallélisme
Adaptabilité
3.7.4.2
3.7.4.3
Organisation architecturale et organisation fonctionnelle .................... 384
Algorithmes d'action et algorithmes d'évaluation ................................. 385
3.7.5
382
382
383
384
Possibilité de créer artificiellement un comportement vivant ........................ 385
3.7.5.1
3.7.5.2
3.7.5.3
Synthèse d'acides aminés ................................................................... 385
Génie génétique .................................................................................. 386
Modèle informatique et fonctions de base de la vie............................. 386
3.7.5.3.1
Non-déterminisme, imprévisibilité de l'homme et matérialisme
3.7.5.4
3.7.5.5
Ordinateur et compréhension .............................................................. 387
Compréhension, imagination et certitude ............................................ 389
3.7.6
386
Etre intelligent, déterminisme et prévisibilité .................................................. 389
3.7.6.1
Equité, confiance, coopération et déterminisme psychologique .......... 392
3.7.6.1.1
3.7.6.1.2
Le jeu "Prends ou laisse"
Le point de vue de Kant
3.7.6.2
Concurrence entre raison et affects. Connaissances cachées ............ 393
3.7.6.2.1
3.7.6.2.2
3.7.6.2.3
Importance des automatismes dans la pensée humaine
Coup de foudre
Connaissances cachées
3.7.6.3
La concurrence entre raison et intuition .............................................. 398
3.7.6.3.1
3.7.6.3.2
3.7.6.3.3
3.7.6.3.4
Le jeu du "Dilemme des voyageurs"
L'homme ne suit que les conclusions conformes à ses valeurs
Un raisonnement critiquable
La science économique est basée sur un postulat contestable
3.7.6.4
3.7.6.5
3.7.6.6
Mécanismes de l'intuition .................................................................... 402
Les deux étapes d'une décision consciente ........................................ 402
Tel est mon bon plaisir ........................................................................ 403
3.7.7
392
393
396
397
397
399
400
401
401
Conclusions sur le déterminisme du vivant et sa prévisibilité ....................... 403
3.8 Le déterminisme dans les sciences sociétales ............................................ 405
3.8.1
3.8.2
3.8.3
Théories utilitaires des XVIIe et XVIIIe siècles .................................................. 405
Craintes et regrets d'aujourd'hui ...................................................................... 406
Une analogie entre évolution darwinienne et économie de marché .............. 407
15
3.8.4
La mondialisation, conséquence de la concurrence ....................................... 408
3.8.4.1
3.8.4.2
3.8.4.3
Lois de la physique et lois de l'économie ............................................ 409
Conséquences économiques de la mondialisation.............................. 409
Mondialisation : causes et inconvénients pour l'homme ...................... 412
3.8.4.3.1
3.8.4.3.2
L'homme, perpétuel insatisfait qui accuse parfois la mondialisation
Frustration due aux désirs insatisfaits et réactions
3.8.4.4
3.8.5
413
413
Accepter donc la mondialisation .......................................................... 414
Evolution historique et morale naturelle .......................................................... 415
3.8.5.1
La morale, à sa naissance et depuis ................................................... 415
3.8.5.2
Conclusion : il existe une morale naturelle .......................................... 418
3.9 Critique du déterminisme ............................................................................... 419
3.9.1
3.9.2
3.9.3
Conditions de prise en défaut du déterminisme .............................................. 419
Conclusion : il faut postuler le déterminisme .................................................. 420
Critique de la méthode scientifique et de la vérité scientifique ...................... 421
3.9.3.1
3.9.3.2
3.9.3.3
3.9.3.4
3.9.3.5
3.9.3.6
Les formalistes .................................................................................... 421
Les intuitionnistes ................................................................................ 421
Les platoniciens................................................................................... 422
Les rationalistes du XVIIIe siècle......................................................... 422
Les empiristes ..................................................................................... 423
Le rationalisme critique de Karl Popper ............................................... 423
3.9.3.6.1
3.9.3.6.2
3.9.3.6.3
3.9.3.6.4
3.9.3.6.5
3.9.3.6.6
3.9.3.6.7
3.9.3.6.8
3.9.3.6.9
3.9.3.6.10
3.9.3.6.11
3.9.3.6.12
3.9.3.6.13
Définition d'une vérité scientifique
Définition d'une théorie appliquée à un domaine pratique
Critères à respecter pour qu'une théorie scientifique soit acceptable
Risques et inconvénients d'une vérité scientifique par consensus
Une théorie peut-elle être probable ?
Définition d'une théorie scientifique objective
Comparaison du rationalisme critique avec l'empirisme
Polémique entre le rationalisme critique et le conventionalisme
Objection holistique à la falsifiabilité
Les systèmes interprétatifs
Sciences dures et sciences molles
Evolution d'une vérité, de la science et du monde selon Popper
Critique de la position de Popper sur le déterminisme
3.9.3.7
Le danger du dogmatisme ................................................................... 434
3.9.4
424
425
426
428
428
428
428
429
430
431
432
433
433
La causalité peut-elle être remise en question ? ............................................. 435
3.9.4.1
3.9.4.2
3.9.4.3
3.9.4.4
3.9.4.5
3.9.4.6
Objections à la causalité contestant la méthode scientifique .............. 435
Causalité et théorie de la Relativité ..................................................... 437
Définitions approfondies d'une cause et de la causalité ...................... 438
Horizon de prédiction ou de reconstitution du passé ........................... 439
Conclusion sur le déterminisme philosophique de Laplace ................. 440
Cause première ................................................................................... 440
3.9.4.6.1
3.9.4.6.2
3.9.4.6.3
3.9.4.6.4
3.9.4.6.5
Définition et problématique
La cause première, un concept contradictoire
Un passé infini, conjecture invérifiable
Un temps cyclique, pure spéculation
Une solution métaphysique du problème de la cause première
3.9.4.7
Erreurs philosophiques concernant la cause première ........................ 443
3.9.4.7.1
3.9.4.7.2
3.9.4.7.3
La physique décrit un Univers d'âge infini, qui a donc toujours existé
L'Univers a été créé par Dieu, lui-même incréé
Une chaîne de causalité remonte nécessairement à l'infini
3.9.4.8
Discussion scientifique ........................................................................ 446
3.9.4.8.1
3.9.4.8.2
Théorie cosmologique de la gravitation quantique
Conséquences de la cosmologie sur le « début de la causalité »
16
440
441
442
442
442
443
444
444
446
446
3.9.4.8.3
Conséquences de la Relativité sur l'unicité de la cause première
3.9.4.9
3.9.4.10
Conclusions sur la cause première et le postulat de causalité ............ 447
Autres problèmes de la notion de causalité ......................................... 448
446
3.9.4.10.1
3.9.4.10.2
3.9.4.10.3
3.9.4.10.4
Objections de multiplicité
Objections de complexité et de chaos
Objection de séparabilité
Légitimité d'une recherche de causalité
448
448
448
448
3.10
L'homme est-il libre malgré le déterminisme ? ..................................... 449
3.10.1
3.10.2
3.10.3
3.10.4
3.10.5
3.10.6
L'homme est toujours insatisfait ...................................................................... 449
Les 3 déterminants de la conscience et l'imprévisibilité de l'homme ............ 449
Désirs conscients de l'homme et critères d'appréciation ............................... 450
L'homme ne maîtrise ni ses valeurs, ni ses désirs.......................................... 450
Définitions du libre arbitre et de la liberté ........................................................ 451
Exclusions de la discussion qui suit sur le libre arbitre ................................. 452
3.10.6.1
3.10.6.2
3.10.6.3
3.10.6.4
3.10.6.5
3.10.7
3.10.8
3.10.9
Impossibilité d'expliquer ...................................................................... 452
Exclusion du surnaturel ....................................................................... 452
Exclusion du libre arbitre total ............................................................. 452
Exclusion de la liberté d'indifférence ................................................... 453
Liberté de penser ................................................................................ 454
Le libre arbitre selon Sartre .............................................................................. 454
Conclusion sur le libre arbitre .......................................................................... 455
Libre arbitre, déterminisme et responsabilité .................................................. 456
3.10.9.1
Point de vue spiritualiste ..................................................................... 456
3.10.9.2
Point de vue matérialiste ..................................................................... 456
3.10.9.3
La société passe avant l'individu ......................................................... 457
3.10.9.4
Pas de tyrannie de la majorité ............................................................. 457
3.10.9.5
Morale naturelle, morale acquise et responsabilité de l'homme .......... 458
3.10.9.6
Instabilité de l'ordre des valeurs morales, fragilité de nos jugements .. 459
3.10.9.7
Conclusions sur les valeurs morales ................................................... 459
3.11
Hiérarchiser les représentations et les raisonnements ........................ 462
3.11.1
3.11.2
Les 4 niveaux de contraintes d'une décision d'action .................................... 462
Adopter des représentations à niveaux hiérarchiques ................................... 465
3.11.2.1
L'intérêt des schémas pour structurer la connaissance ....................... 465
3.11.2.2
Adéquation des hiérarchies aux arborescences de causalité .............. 465
3.11.2.3
Occulter des niveaux empêche la compréhension .............................. 466
3.11.2.4
Structures hiérarchiques, mémorisation et réflexion............................ 467
3.12
Conclusions et recommandations pratiques......................................... 468
3.13
Références et compléments.................................................................... 470
3.14
Annexe : l'espace-temps de Minkowski ................................................. 580
3.14.1
3.14.2
3.14.3
3.14.4
3.14.5
3.14.6
3.14.7
3.14.8
3.14.9
3.14.10
3.14.11
3.14.12
La Relativité Restreinte ..................................................................................... 580
L'espace-temps .................................................................................................. 580
Diagramme d'espace-temps.............................................................................. 580
Intervalle d'espace-temps ................................................................................. 584
Condition de causalité entre deux événements............................................... 585
Indépendance entre deux événements et relation de causalité ..................... 586
Conclusions sur la causalité ............................................................................. 589
Remarque sur la simultanéité ........................................................................... 589
Ligne d'univers .................................................................................................. 590
Relativité Générale. Mouvement accéléré. Inclinaison du cône de lumière .. 590
Paradoxe du voyageur de Langevin ................................................................. 591
Quadrivecteur énergie-impulsion ..................................................................... 592
17
3.15
3.16
Scientifiques et philosophes cités ......................................................... 595
Résumé des cas d'imprédictibilité.......................................................... 599
18
Première partie
1.
Où en sont les preuves de l'existence de Dieu ?
Un point de vue de scientifique
"Roseau pensant.
Ce n'est point de l'espace que je dois chercher ma dignité, mais
c'est du règlement de ma pensée. Je n'aurai point d'avantage en
possédant des terres. Par l'espace l'univers me comprend et
m'engloutit comme un point ; par la pensée je le comprends."
Blaise Pascal - Pensées [66]
19
1.1
Les définitions d'André Comte-Sponville et Durkheim
Le philosophe athée André Comte-Sponville écrit dans [5], pages 80 et 16 :
"J'entends par « Dieu » un être éternel spirituel et transcendant (à la fois extérieur
et supérieur à la nature), qui aurait consciemment et volontairement créé
l'univers. Il est supposé parfait et bienheureux, omniscient et omnipotent. C'est
l'être suprême, créateur et incréé (il est cause de soi), infiniment bon et juste,
dont tout dépend et qui ne dépend de rien. C'est l'absolu en acte et en personne."
"J'appelle « religion » tout ensemble organisé de croyances et de rites portant
sur des choses sacrées, surnaturelles ou transcendantes, et spécialement sur
un ou plusieurs dieux, croyances et rites qui unissent en une même
communauté morale ou spirituelle ceux qui s'y reconnaissent ou les pratiquent."
Avant André Comte-Sponville, le sociologue Durkheim avait donné en 1912 [5-a] une
définition un peu différente de la religion, dont André Comte-Sponville s'est inspiré :
"La religion est « un système solidaire de croyances et de pratiques relatives à
des choses sacrées (c’est-à-dire séparées, interdites), croyances et pratiques
qui unissent en une même communauté morale, appelée Eglise, tous ceux qui y
adhèrent »."
Notez que ces deux définitions de la religion ne font pas référence à un dieu mais à
des choses sacrées, ce qui permet de prendre en compte les religions animistes et
de classer le bouddhisme (croyance sans dieu) parmi les religions.
En outre, la définition de Durkheim a l'avantage de rappeler le nom donné à une
« communauté morale ou spirituelle » : une Eglise.
En tant que système de croyances, une religion fait partie d'une culture.
Compte tenu de ces définitions, voyons quelles sont les raisons psychologiques de
croire en Dieu de certains hommes.
20
1.2
Raisons psychologiques de croire en Dieu, science et laïcité
Prééminence des émotions sur la raison
Les connaissances actuelles, issues des neurosciences et de la psychologie,
permettent d'affirmer ce qui suit.

L'esprit humain ne déclenche une action, geste ou pensée, que pour satisfaire
un besoin psychologique, résultant d'un affect ou d'une émotion subconsciente.
J'agis ou je réfléchis parce que j'ai faim, j'ai peur, je suis amoureux, j'ai soif de
justice, j'ai besoin d'être apprécié, j'espère une récompense, etc.

Un processus de raisonnement est accompagné de jugements de valeur à
chaque étape, avec les affects qui en résultent. De même que chaque
perception physique, chaque pensée est immédiatement jugée en fonction de
ses conséquences prévisibles, dont chacune est associée à une ou plusieurs
valeurs. C'est ainsi que notre cerveau fonctionne, c'est automatique et
impossible à empêcher.

La conclusion logique d'un raisonnement ne cause jamais une action ou une
inaction délibérées ; elle ne peut que faire craindre ou espérer un résultat, dont
l'appréciation produira un affect qui justifiera une action. La raison de l'homme
est un outil au service de ses affects, un outil au même titre que sa force
physique, et pas plus qu'elle.
Les philosophes qui pensent que la raison est toute-puissante pour faire faire à
l'homme des choix contraires à ses désirs profonds se trompent, les
neurosciences l'ont bien démontré aujourd'hui. L'homme a bien un libre arbitre,
mais toutes les décisions qu'il croit prendre librement sont soumises à un
ensemble hiérarchisé de valeurs associées à des émotions, valeurs et émotions
dont il n'est pas maître : l'homme peut faire ce qu'il veut, il ne peut pas vouloir ce
qu'il veut.
Pourquoi certains croient en Dieu
Compte tenu de ce qui précède, je ne vois que deux raisons psychologiques qui font
que certains hommes croient en Dieu :

Le besoin que le monde ait un sens, c'est-à-dire qu'on ait une réponse à des
questions comme :
 « Pourquoi y a-t-il quelque chose plutôt que rien ? » ;
 « Comment l'Univers est-il né ? » ou (plus moderne) « Qu'y avait-il avant le
Big Bang ? » ;
 « Pourquoi l'Univers est-il si complexe et si beau ? » ;
 « Comment se fait-il que l'évolution ait abouti à ces merveilles de complexité
que sont l'homme et l'environnement qui lui permet de vivre, et n'est-ce pas
là une preuve qu'elle a été guidée par une volonté délibérée au lieu d'être le
fait d'un hasard aveugle ? ».
Croire que la réponse à cette dernière question est nécessairement « Parce
qu'il y a un Dieu » s'appelle poser le principe anthropique. J'explique l'erreur
de raisonnement à la base de ce postulat au paragraphe « Le principe
anthropique ».
21
L'homme a un besoin instinctif de relier entre eux des faits, des événements ou
des pensées diverses, pour leur donner une structure et situer celle-ci par
rapport à d'autres connaissances qu'il a déjà. L'absence de structure ou de lien
avec des connaissances préexistantes induit instinctivement dans son esprit une
crainte de l'inconnu et des dangers éventuels qu'il peut comporter. Tous les
hommes sont ainsi, depuis des milliers d'années que leur esprit pense : il a
besoin de sens. [D10]
Expliquer ce qu'on ne comprend pas par l'existence et la volonté de Dieu évite
de continuer à chercher une réponse en restant dans l'incertitude. Et lorsque des
hommes influents, prêtres ou rois, disent croire à l'explication divine,
lorsqu'autour de soi tout le monde y croit comme au Moyen Age, l'existence du
Dieu créateur devient une évidence.

Le besoin de valeurs bien définies [70], comme le Bien et le Mal, le Sacré et le
Profane, le Juste et l'Injuste, la Charité et l'Indifférence, etc. Dans un monde où
le mal est inévitable et source de tant de souffrances, l'homme peut se consoler
en pensant que Dieu lui apportera le bonheur dans l'au-delà. Face à l'injustice,
l'homme peut espérer la justice divine. Le pauvre peut espérer la charité, etc.
On prête à Dieu la défense des valeurs positives auxquelles on veut croire et qui
consolent. Les textes sacrés définissent des règles de morale [70] et des
principes de justice grâce auxquels les sociétés ont pu se donner des règles vie
en commun acceptables et les hommes ont créé du lien social.
Vérités et valeurs révélées contre science et laïcité
Au fur et à mesure que le progrès des connaissances, c'est-à-dire la science, faisait
reculer l'ignorance, le besoin d'explication divine du monde diminuait. Peu à peu,
l'homme a remplacé les vérités révélées, éternelles et infalsifiables [203], par des
vérités démontrées. Celles-ci sont vérifiables même si chaque connaissance peut un
jour être remplacée par une connaissance plus approfondie. La science explique ce
qu'elle peut du monde sans jamais invoquer Dieu.
Au fur et à mesure du progrès des sociétés, c'est-à-dire de leurs institutions et des
règles de vie admises par leurs citoyens, le besoin de valeurs et règles d'inspiration
divine a diminué. Dans une démocratie moderne, on a remplacé les lois provenant
de textes sacrés par des lois imaginées et votées par des hommes. On a remplacé
des règles de morale [70] issues de lois religieuses (comme l'abstinence de relations
sexuelles hors mariage) par une tolérance limitée seulement par le respect d'autrui.
On a remplacé des tyrans « Roi par la grâce de Dieu » par des gouvernements issus
d'élections libres, et des sociétés à classes privilégiées (comme la noblesse et le
clergé) par des sociétés d'hommes égaux. La laïcité n'est pas seulement une
tolérance, une neutralité vis-à-vis de croyances et pratiques religieuses diverses,
c'est aussi et surtout le remplacement de valeurs révélées et imposées par des
valeurs négociées et votées.
Historiquement, les grandes religions monothéistes ont eu deux rôles importants
dans les sociétés humaines : un apport culturel et moral et un lien social entre les
croyants, qui étaient la grande majorité. Ces deux influences ont beaucoup diminué
dans certaines sociétés : c'est le cas notamment de la France, et les retombées
sociologiques constatées sont graves [D6].
22
1.3
L'homme conçoit Dieu à son image
Je ne blasphème pas, je constate : les hommes prêtent à Dieu les qualités qu'ils
n'ont pas assez ou pas du tout, mais qu'ils désirent. Leur conception de Dieu est si
anthropomorphique qu'elle est parfois naïve ; on voit bien qu'elle résulte de leur
entendement, qu'elle reflète leurs problèmes. Tout à la fois, ils conçoivent Dieu
comme antérieur à l'homme, Sa créature ; extérieur à lui lorsqu'Il l'a créé, l'aide, le
juge ou le punit ; et si semblable à lui lorsqu'Il est jaloux de l'adoration d'autres dieux
[D1]. Et la multiplicité des religions qui durent depuis des siècles montre que la
même quête des hommes a eu des réponses religieuses diverses, adaptées à des
lieux et des habitudes de vie divers. Nous compléterons ce point de vue ci-dessous.
1.3.1
Une contradiction fondamentale qui explique la volonté de prouver
l'existence de Dieu
Il y a une contradiction fondamentale dans le concept même d'un Dieu infiniment
bon, avec Sa Providence qui intervient dans les situations graves où le mal pourrait
prévaloir : comment se fait-il, alors, que l'on constate depuis toujours dans le monde
autant de souffrances et d'injustices, et pourquoi Dieu laisse-t-il l'homme faire autant
de mal ? Les croyants ont une réponse à cette contradiction : « Dieu laisse à
l'homme son libre arbitre ». Cette réponse a été conçue, à l'évidence, pour
innocenter Dieu. Comme elle est contraire au bon sens, les croyants nous
demandent de renoncer à être logiques et à chercher à comprendre lorsqu'il s'agit de
Dieu : « Les voies du Seigneur sont impénétrables » [D3]. En somme, la religion est
révélée et cette révélation doit être acceptée sans être soumise à critique rationnelle.
Les grandes religions sont donc des religions révélées, c'est-à-dire présentées
comme vérités à priori, à accepter telles quelles sans démonstration. Pour elles, la
recherche de preuves logiques de l'existence de Dieu - que nous allons aborder cidessous - n'a donc pas de raison d'être. Si tant de religieux et de philosophes
croyants y ont travaillé, c'était seulement pour convaincre les non-croyants de croire.
En France, par exemple, Pascal et Descartes y ont travaillé toute leur vie.
Alors que des parents cherchent à protéger leur enfant (qui risque de faire des
bêtises parce qu'il n'a pas encore l'âge de raison) en l'empêchant de les faire, Dieu,
notre Père, nous laisse les faire, quitte à nous punir ensuite…
La contradiction (appelée traditionnellement « le problème du mal ») est même plus
grave que ci-dessus. Dans [5] page 122, André Comte-Sponville rapporte quatre
hypothèses attribuées à Epicure :
"« Ou bien Dieu veut éliminer le mal et ne le peut ; ou il le peut et ne le veut ; ou
il ne le veut ni ne le peut ; ou il le veut et le peut. S'il le veut et ne le peut, il est
impuissant, ce qui ne convient pas à Dieu ; s'il le peut et ne le veut, il est
méchant, ce qui est étranger à Dieu. S'il ne le peut ni le veut, il est à la fois
impuissant et méchant, il n'est donc pas Dieu. S'il le veut et le peut, ce qui
convient seul à Dieu, d'où vient donc le mal, ou pourquoi Dieu ne le supprime-t-il
pas ? »
La quatrième hypothèse, la seule qui soit conforme à notre idée de Dieu, est
donc réfutée par le réel même (l'existence du mal). Il faut en conclure qu'aucun
Dieu n'a créé le monde, ni ne le gouverne, soit parce qu'il n'y a pas de Dieu, soit
parce que les dieux (telle était l'opinion d'Épicure) ne s'occupent pas de nous, ni
23
de l'ordre ou du désordre du monde, qu'ils n'ont pas créé et qu'ils ne gouvernent
en rien..."
Compte tenu de la contradiction fondamentale qui apparaît avec le problème du mal,
il a paru essentiel à beaucoup d'hommes de vérifier si Dieu existe ou de prouver aux
autres que c'est le cas.
24
1.4
Comment s'assurer de l'existence de Dieu ?
L'homme se fait de Dieu une image très humaine, et pourtant si abstraite qu'il ne
peut en vérifier la validité et qu'il ne peut faire d'expérience qui prouve l'existence de
Dieu ou son intervention. Un croyant sait que Dieu ne relève pas les défis des
hommes. C'est pourquoi, depuis des millénaires, l'homme se demande comment se
prouver rationnellement à lui-même et à ses semblables que Dieu existe.
Le judaïsme, puis le christianisme et enfin l'islam sont des religions révélées.
Chacune affirme l'existence de Dieu et précise ses commandements en demandant
à l'homme de les croire sans démonstration ou preuve expérimentale. Chacune a
des textes sacrés qui citent la parole de Dieu sans preuve factuelle ou rationnelle, en
demandant à l'homme de faire acte de foi pour les croire.
Avant le siècle des Lumières [47] (qui a pris fin avec le décès de Kant, en 1804)
seuls quelques philosophes et quelques saints se sont préoccupés de convaincre
leurs semblables de croire en Dieu en apportant des preuves logiques, ou ce qu'ils
croyaient être des preuves logiques. Constatant l'absence de valeur de ces preuves,
point sur lequel nous revenons plus bas, Kant a voulu reprendre à zéro l'étude du
sujet et soumettre l'existence de Dieu - en même temps que le reste de notre savoir au « tribunal de la raison ». Il a écrit en 1781 dans la préface de la Critique de la
raison pure [M3] :
"Notre siècle est particulièrement le siècle de la critique à laquelle il faut que tout
se soumette. La religion, alléguant sa sainteté et la législation sa majesté,
veulent d'ordinaire y échapper ; mais alors elles excitent contre elles de justes
soupçons et ne peuvent prétendre à cette sincère estime que la raison accorde
seulement à ce qui a pu soutenir son libre et public examen."
On appelle "théodicée" la partie de la métaphysique qui traite de l'existence et de la
nature de Dieu d'après les seules lumières de l'expérience et de la raison ; théodicée
est synonyme de théologie rationnelle. Ce chapitre est donc un texte de théodicée.
Dans sa Critique de la raison pure, Kant a prouvé l'impossibilité de démontrer
logiquement l'existence ou l'inexistence de Dieu en étudiant les trois seuls types de
preuve possibles. Les deux premiers types sont des raisonnements purs, ne partant
d'aucune expérience concrète ; le troisième type part d'une expérience concrète.

Les preuves dites cosmologiques, partant de l'existence réelle d'un objet
matériel dont on ne prend pas en compte les propriétés ;

Les preuves ontologiques, indépendantes de toute réalité matérielle ; ces
preuves déduisent l'existence réelle d'un objet d'une abstraction pure, par
raisonnement, sans s'occuper de ses propriétés ;

Les preuves téléologiques (appelées aussi physico-théologiques), partant d'une
expérience déterminée du monde réel qu'on attribue à une finalité.
1.4.1
Les preuves cosmologiques
Schématiquement, ces « preuves » reposent sur le raisonnement suivant.
L'existence d'une chose quelconque est incertaine parce que contingente, c'est-àdire qu'elle pouvait exister ou non. Mais je suis sûr que quelque chose existe (moi
25
par exemple, comme le remarquait Descartes en écrivant « je pense, donc je suis »).
Il faut donc nécessairement que ce qui existe ait une cause, et que sa cause ait ellemême une cause, et ainsi de suite. Pour que la suite de ces causes ne soit pas
infinie, il faut qu'il existe une « cause sans cause », cause première appelée Dieu.

Divers philosophes (Aristote, Avicenne, Maimonide, Saint Thomas d'Aquin…)
sont partis de la contingence du monde (c'est-à-dire du fait que le monde existe,
alors que cette existence n'était pas obligatoire, qu'elle pouvait survenir ou non)
pour en déduire qu'il y a une cause de cette existence, cause qui est Dieu.

De même, puisque le monde évolue, il y a forcément une cause de cette
évolution, qui a elle-même une cause, etc., la cause première [16] étant Dieu.
En somme, la preuve cosmologique repose sur le postulat de causalité, selon lequel
ce qui existe a nécessairement une cause ; et comme la situation actuelle est due à
un enchaînement de causes, la cause première (sans cause) est appelée Dieu.
1.4.2
Les preuves ontologiques
Schématiquement, ces « preuves » reposent sur le postulat que « l'essence précède
l'existence », c'est-à-dire que le concept non physique (abstrait, transcendant) de
Dieu avec sa perfection précède et impose son existence, qui en est un attribut, une
conséquence. On trouvera plus bas deux discussions sur la relation de causalité
entre essence et existence :

Une discussion logique, basée sur les définitions de ces deux termes.

Une discussion de la possibilité que l'essence précède l'existence ou que
l'existence précède l'essence est fournie par le court texte de Sartre
"L'existentialisme est un humanisme" [15].
Premier exemple de preuve ontologique, celle d'Anselme
Saint Anselme de Cantorbéry (XIe siècle) a d'abord défini Dieu comme un concept
(c'est-à-dire une abstraction et non un objet matériel) tel que rien de plus grand ne
puisse être conçu (c'est-à-dire dont l'essence a la propriété « Dieu est un être plus
grand que tout »). A partir de cette définition, Anselme fait une démonstration par
l'absurde de l'existence concrète de Dieu :
« Si Dieu n'existait que dans la pensée, si c'était une abstraction pure, alors on
pourrait concevoir quelque chose d'encore plus grand, le même Dieu existant
aussi concrètement, ce qui est contradictoire avec l'hypothèse initiale. Donc Dieu
existe aussi concrètement en tant qu'être plus grand que tout ce qu'on peut voir
ou concevoir. »
Anselme utilise donc le fait que le concept d'un Dieu infiniment grand mais purement
abstrait soit contradictoire pour en déduire que Dieu existe réellement : il déduit
l'existence de Dieu de la définition qu'il en donne.
Cette preuve est dite « ontologique » (mot signifiant « qui a trait à l'être lui-même,
c'est-à-dire à sa possibilité, à son existence, à son essence, etc., et non à son
apparence »). Elle consiste à déduire d'une abstraction une réalité concrète, ce qui
est une faute de raisonnement, nous le verrons plus bas. Nous verrons aussi plus
bas, avec un exemple mathématique, que l'homme peut concevoir une suite infinie
26
d'ensembles infinis, chacun plus grand, plus riche que tous ceux qui le précèdent
dans la suite. A part les premiers, tous ces ensembles infinis contiennent plus
d'éléments qu'il y a d'objets dans l'Univers. L'homme serait-il de ce fait l'égal de
Dieu ? Serait-ce là une preuve de l'affirmation que « Dieu est en chaque homme ? ».
Le postulat qu'il peut exister physiquement quelque chose de plus grand que tout
était dangereux même à l'époque d'Anselme, car un contre-exemple était connu
depuis l'antiquité grecque : dans l'ensemble des nombres entiers il n'existe pas
de nombre plus grand que tous les autres (l'infini n'est pas un nombre). Donc
qu'est-ce qui prouve qu'il existe un concept tel que rien de plus grand ne puisse
se concevoir ? Déduire une existence physique d'une conjecture fausse est une
erreur de raisonnement évidente.
Deuxième exemple de preuve ontologique : l'innéisme de Descartes
Descartes utilise aussi une preuve ontologique lorsqu'il affirme que Dieu existe parce
que lui, homme imparfait, conçoit la perfection divine, concept qui ne peut lui être
inspiré que par Dieu.
« Je doute, donc j'existe et je suis une chose qui pense ; or je pense à quelque
chose d'infini et de parfait, pensée qui ne peut venir de moi seul qui suis fini et
imparfait, donc elle vient de quelque chose d'infini et de parfait, Dieu ; donc Il
existe ».
La doctrine « Je crois quelque chose parce que j'en suis absolument sûr » est
appelée innéisme [4].
L'erreur fondamentale des preuves ontologiques est évidente, comme l'a montré
Kant : on ne peut pas déduire une existence concrète, c'est-à-dire vérifiable par
l'expérience, d'une essence qui est une abstraction humaine. L'existence d'un
concept dans l'esprit d'une personne n'entraîne pas l'existence physique d'un objet
correspondant.
1.4.3
La preuve téléologique
D'autres philosophes (Platon et Aristote, son disciple), constatant qu'il y a un ordre
dans le monde et non le désordre absolu, qu'il y a des lois dans la nature (comme
celles du mouvement prévisible des astres) et qu'on y trouve beaucoup de beauté,
ont refusé de croire que c'était là l'effet du hasard. Ils ont affirmé que c'était
nécessairement le résultat d'un dessein, d'une finalité, d'une volonté, celle de Dieu.
La téléologie
La téléologie est une doctrine qui explique l'existence de l'Univers par un but, une
intention extérieure à lui. Cette intention est une cause finale, par opposition à une
cause efficace [39]. La causalité est dite finale lorsqu'elle désigne un but à atteindre ;
elle est dite efficace lorsqu'elle désigne un lien déterministe entre cause et effet.
La téléologie est aussi l'étude des fins, notamment humaines. En tant que doctrine
synonyme de finalisme, la téléologie s'oppose au mécanisme, qui conçoit l'existence
de lois de la nature sans volonté externe à l'Univers, donc régies par le
déterminisme. On peut considérer le finalisme comme un déterminisme qui traduit la
volonté et la puissance divines.
27
La position actuelle de l'Eglise catholique
En juillet 2005, le cardinal-archevêque de Vienne, Mgr. Schönborn, a affirmé que la
position officielle de l'Eglise catholique explique l'existence du monde par l'argument
téléologique, considéré comme évident. Il a souligné que cette position est
incompatible avec la théorie darwinienne de l'évolution des espèces sous l'effet de
mutations aléatoires et de la survie des plus forts par sélection naturelle [D4]. Or les
scientifiques prouvent l'évolutionnisme depuis les années 1920, en créant des
espèces mutantes artificielles par un processus analogue à celui des accidents
génétiques naturels !
En juillet 2007, le pape Benoît XVI a pris une position claire sur deux points [D7] :

Il existe de nombreuses preuves scientifiques en faveur de l'évolution, qui
apparaît donc comme réelle et qu'il faut accepter, contredisant ainsi Mgr.
Schönborn ;

Mais l'évolutionnisme ne répond pas à la question de la création initiale du
monde, sujet sur lequel l'Eglise affirme que la « raison créatrice » précède toute
chose et que le monde en est le reflet pensé et voulu.
En somme, l'Eglise soutient une position spiritualiste et finaliste. En affirmant que
l'Univers a été créé par Dieu, elle soutient aussi l'argument cosmologique de Son
existence.
1.4.4
La raison morale de Kant
Comme on le verra ci-dessous, les trois « preuves » précédentes ne sont pas
convaincantes. Etant croyant, Kant, le premier grand philosophe qui a expliqué leurs
erreurs (voir "Critique de la raison pure" [M3]), a aussi fourni un argument non
rationnel pour postuler l'existence de Dieu dans sa "Critique de la raison pratique"
[M3]. Il y a expliqué que vivre de manière morale [70] nécessite une foi en Dieu, car
seul un pouvoir divin est en mesure de récompenser la vertu avec du bonheur et de
punir les méfaits.
Kant affirme que les commandements de la morale [70] imposent à l'homme de faire
son devoir, bien qu'il soit libre d'y manquer et que son égoïsme et ses penchants
naturels l'y incitent.
Les règles morales ne se conçoivent pas logiquement dans un monde matérialiste,
c'est-à-dire régi par une nécessité aveugle comme celle des lois de la physique et de
l'économie. Dans un tel monde, les décisions de l'homme résultent automatiquement
de circonstances physiques, il n'est donc pas libre, donc pas responsable, et ses
actions ne sont ni punies ni récompensées dans l'au-delà ; car il n'existe ni au-delà ni
Dieu. Ce sujet est abordé en détail dans la troisième Partie et dans [5].
Par contre, ces règles deviennent cohérentes dans le cadre d'une foi en Dieu, ou
d'une morale athée ; pour nous Occidentaux elles sont alors les mêmes que celles
de la religion, et leur origine est judéo-chrétienne.
Pour plus de détails sur ce sujet, voir dans la 3 e partie de cet ouvrage ce paragraphe.
28
Kant affirme même que les devoirs d'altruisme et d'universalité [D5] existent à priori,
résultent de la dignité de l'homme et n'ont pas besoin de justification logique. Il
rejette aussi la justification d'un comportement vertueux basée sur la crainte d'un
châtiment ou l'espoir d'une récompense, dans ce monde ou dans l'autre : celui dont
le comportement n'est justifié que par "la carotte et le bâton" n'a guère de mérite !
Kant postule donc l'existence pour l'homme d'un devoir impératif, valeur morale
suprême qui se passe de justification rationnelle et qui implique la bonne volonté et
l'intention pure, quels que soient les résultats. Chaque individu doit avoir intériorisé
ce devoir, qui doit faire partie des valeurs qui lui ont été transmises par ses parents
et la société.
La raison morale de croire de Kant n'est donc pas autre chose qu'un ensemble de
postulats clairement énoncés, dont ceux de l'existence de Dieu et de la liberté de
l'homme, indémontrables dans le cadre de la raison pure et faisant donc l'objet d'un
choix personnel. Ces deux postulats peuvent être invoqués par les croyants pour
fonder la morale, qui doit guider l'action des hommes en société. Mais la morale,
basée sur la valeur suprême du devoir, peut s'en passer : un athée ou un agnostique
peuvent être aussi vertueux - ou peu vertueux - qu'un croyant.
29
1.5
Des preuves sans valeur
Les preuves cosmologiques et téléologiques partent de considérations sur notre
monde pour en déduire qu'elles ont nécessairement une cause première hors de ce
monde, cause définie comme étant Dieu [16].
1.5.1
Faiblesses de la causalité des preuves cosmologiques
Rappel : la preuve cosmologique repose sur le postulat que l'existence d'une chose
et l'évolution d'une situation ont nécessairement chacune une cause, car la chose
aurait pu ne pas exister et la situation ne pas changer ; la cause première de toutes
choses et de toutes évolutions est alors appelée Dieu [16].
1.5.1.1
La contingence est une hypothèse stérile
Qu'est-ce qui prouve qu'une chose qui existe aurait pu ne pas exister ? Rien. Ce
dont on est sûr, c'est qu'elle existe. Imaginer une réalité différente de celle qu'on
constate conduit à des spéculations métaphysiques sans valeur rationnelle, car elles
contredisent le principe d'identité [16].
Exemple de spéculations sans issue car non vérifiables expérimentalement :
imaginer ce que serait l'Univers si l'espace avait 7 dimensions au lieu de 3, ou si
l'attraction universelle n'existait pas, ou si le temps étant cyclique il n'y aurait ni
début ni fin, donc à aucun moment Dieu n'aurait pu créer le monde…
Et qu'est-ce qui prouve que quelque chose qui existe a été créé à partir d'autre
chose ou de rien ? Rien, encore : le principe « tout ce qui existe a été créé » est un
postulat, il ne peut être prouvé. Une chose éternelle - si elle existe - a toujours existé
sans avoir été créée ; énoncée de manière plus moderne, cette affirmation devient :
« Le temps a commencé avec l'Univers » (c'est-à-dire avec le Big Bang), qui est un
postulat que rien ne contredit dans l'état actuel de notre science.
Dire qu'une chose qui existe est contingente est pure spéculation.
Voir aussi dans la troisième partie "L'objection philosophique dite « de la cause
ultime ou de la cause première »".
1.5.1.2
Pas de preuve des qualités attribuées à Dieu
Les preuves cosmologiques définissent Dieu comme la cause première (ultime) [16]
de l'existence du monde et de son évolution. Mais même si on admet ce
raisonnement-là, rien ne prouve que cette cause première ait les qualités qu'on
attribue à Dieu : toute-puissance, omniscience, bonté, etc.
1.5.1.3
Conclusion sur les preuves cosmologiques
L'homme a tendance à affirmer l'existence d'une cause pour tout ce qu'il constate et
pour tout ce qu'il conçoit, parce que c'est plus simple et plus rassurant. Baser
l'existence de Dieu sur la contingence de l'Univers et la causalité n'est guère
convaincant. Et de toute manière la causalité ne justifie pas les qualités de bonté, de
justice, etc. attribuées à Dieu. Les preuves cosmologiques sont donc sans valeur.
1.5.2
Faiblesse des preuves ontologiques
Rappel : la preuve ontologique affirme : « Puisque je peux concevoir les propriétés
de perfection et d'infini de Dieu, Il existe ».
30
Kant dénonce les raisonnements de ce type comme erronés, les qualifiant de
« malheureuse preuve ontologique ». En effet, ces raisonnements conçoivent un être
parfait, tout-puissant, plus grand que tout, etc. (Dieu), puis affirment que parce qu'on
l'a imaginé, il existe. Kant explique :
« Cent thalers [le thaler était une pièce de monnaie en argent] que j'imagine
simplement ne contiennent pas la moindre pièce de moins [dans ma pensée]
que cent thalers qui existent réellement, car c'est chose impliquée dans la nature
synthétique des affirmations d'existence. Si ce n'était pas le cas, la notion de ces
thalers réels serait différente de celle de cent thalers possibles ; l'existence serait
contenue dans la notion. »
Kant rappelle que l'objet "cent thalers réels" a les mêmes propriétés que le concept
(la description et la possibilité d'existence) de ces cent thalers (qui est imaginaire),
d'après la définition même d'un concept. L'existence d'un objet n'est pas une
propriété de son concept, car on peut imaginer les concepts d'objets qui n'existent
pas. La création d'un objet n'ajoute aucune propriété à celles de son concept, car
sinon le concept ne représenterait pas la totalité de son objet. Affirmer l'existence
d'un objet ajoute donc une information non conceptuelle (l'existence) à celles de ses
propriétés conceptuelles. Nous ne pouvons donc pas déduire la réalité d'une chose
de la pensée de cette chose ; en particulier, ce n'est pas parce que nous imaginons
Dieu qu'Il existe. (Détails de ce raisonnement : ici.)
Remarque : Aristote s'était déjà aperçu de l'absence de relation de causalité entre
une abstraction et une existence physique [201].
1.5.2.1
Comprendre l’erreur des preuves logiques de l'existence de Dieu
Il y a une faute de raisonnement, hélas fréquente, dans les preuves logiques de
l'existence de Dieu. Elle consiste à partir d’hypothèses vérifiables dans un contexte
donné pour en tirer une conclusion hors de ce contexte. Une preuve logique
s’appuyant sur des certitudes vérifiables dans notre Univers physique ne peut être
construite pour des concepts comme Dieu où l'âme externes à cet Univers, parce
que Dieu existait avant et qu’Il l’a créé, et que l'âme et Lui sont immatériels. L’esprit
humain peut faire - et fait - l’extrapolation, mais celle-ci n’a pas valeur de preuve.
C'est ainsi que nous verrons dans la 3 e partie de cet ouvrage, en parlant du Big
Bang et de la fraction de seconde qui le suit appelée « temps de Planck », que
nous ne pouvons pas parler de ce qui s'est passé pendant ce temps-là – et à
fortiori avant, car les lois de notre physique ne s'appliquaient pas ; en parler
serait pure spéculation.
L’extrapolation hors de notre Univers ne permet pas, non plus, d’affirmer que parce
qu’Il est hors de notre Univers, Dieu n’existe pas.
Notre raison est donc dans l’impossibilité de conclure avec certitude à l’existence ou
la non-existence de Dieu, qui ne peut donc être qu'un à priori que chacun de nous
peut postuler ou non.
Kant, pourtant croyant, a montré que les concepts métaphysiques comme Dieu et
l'âme sont des inventions irrationnelles de l'esprit humain, des illusions apparues
31
en cherchant à atteindre des vérités absolues, universelles et générales, ou les
causes premières des phénomènes naturels. Ces vérités et causes premières sont
des spéculations inaccessibles à la raison.
L'erreur d'Anselme
En plus des raisons de rejet de la preuve ontologique, le raisonnement d'Anselme est
critiquable parce qu'il manipule la notion de "plus grand que tout", qui implique une
possibilité de comparer deux concepts, Dieu seulement abstrait et Dieu à la fois
abstrait et réel. Comme Kant l'a souligné dans le raisonnement ci-dessus, un objet
réel a, dans notre esprit, la même représentation que l'abstraction de cet objet. Deux
objets qui ont même représentation mentale sont impossibles à distinguer, donc à
comparer – sinon en les trouvant identiques.
En outre, la notion de "plus grand que tout" est si vague qu'elle est parfois absurde.
En fait elle n'a de sens qu'à l'intérieur d'un ensemble ordonné, ce qui n'est pas le cas
pour l'ensemble à deux éléments Dieu seulement abstrait et Dieu à la fois abstrait et
réel, dont les éléments se confondent dans notre esprit. Et même dans un ensemble
ordonné comme celui des nombres entiers naturels, on sait depuis les anciens Grecs
qu'il n'existe pas de nombre entier plus grand que tous les autres, l'infini n'étant pas
un nombre entier.
L'erreur d'Anselme est encore très fréquente de nos jours, beaucoup de gens
manquant de rigueur intellectuelle. Soit ils tiennent pour vraie une proposition qui ne
l'est pas - ou pas toujours, soit ils font des opérations mentales comme la
comparaison sur des objets où elles ne s'appliquent pas. La rigueur mentale
s'acquiert peu à peu, en pratiquant des disciplines comme les sciences exactes et
l'algorithmique informatique, et en apprenant à se connaître pour prendre le moins
souvent possible des décisions dictées par nos envies au mépris de notre raison.
1.5.2.2
Un exemple tiré de l'arithmétique
Dans l'ensemble des fractions dont le numérateur et le dénominateur sont tous deux
des entiers non nuls on peut toujours diviser une fraction A par une fraction B, ce qui
donne un quotient Q qui est une fraction : dans cet ensemble des fractions, la
division est toujours possible.
Si je me base sur cette possibilité pour affirmer que dans un autre ensemble, celui
des entiers non nuls, la division est toujours possible, je fais une erreur : dans cet
ensemble-là, le quotient de 3 par 5 n'existe pas, et mon affirmation est fausse : une
règle ou une possibilité valable dans le premier ensemble ne l'est pas
nécessairement dans un ensemble différent.
Cet exemple montre qu'il est dangereux d'appliquer les règles d'un domaine à un
autre. En particulier, les lois de notre Univers n'ont aucune raison de s'appliquer en
dehors – extérieur dont l'existence même étant incertaine, rien ne prouve qu'il soit
régi par les mêmes lois. Toute conclusion sur quelque chose d'externe à notre
Univers est donc pure spéculation, sans valeur rationnelle.
1.5.2.3
Un exemple cosmique et un exemple biologique
Les exemples suivants aident, eux aussi, à comprendre l'erreur des déductions dont
le résultat est externe à l'ensemble de départ. Un certain nombre de théories
32
récentes d’astrophysique concernant la naissance et l’expansion de notre Univers à
partir d’un instant initial appelé « Big Bang » prévoient la possibilité d’existence
d’autres univers, qui nous sont physiquement inaccessibles et le resteront à jamais.
Elles laissent ouverte la possibilité qu’un de ces univers soit gouverné par des lois
physiques différentes des nôtres, par exemple parce que des constantes
fondamentales comme la vitesse de la lumière "c" ou la constante de gravitation "G"
auraient des valeurs différentes.
L’existence de telles lois ne contredirait aucune logique humaine et ne mettrait pas
en cause les lois physiques qui s’appliquent chez nous. Si nous affirmions que parce
que nous avons, dans notre Univers, des lois bien connues, démontrées et dont les
prédictions sont vérifiables, ces lois s’appliquent forcément à tout autre univers, nous
ferions une grave erreur.
De manière générale, les concepts absolus sont dangereux, par exemple
lorsqu'il s'agit de lois de la physique ou de ses constantes. C'est ainsi que la
Relativité nous apprend que les mesures du temps et de la distance sont
relatives au mouvement d'un observateur et au champ de gravitation ; le temps
et l'espace absolus de Newton ne sont que des approximations.
Un autre exemple de cette erreur consiste à affirmer que les lois biologiques que
nous constatons sur notre Terre s’appliquent forcément à toute autre planète
supportant de la vie dans l’Univers. Autre énoncé équivalent : sur une autre planète,
la définition même de la vie peut être différente. Enfin, sur Terre même, il y a des
êtres vivants appelés extrémophiles, qui vivent dans des conditions extrêmes de
température (voisine de 100°C), de salinité ou d'acidité.
1.5.2.4
Généralisation : danger des raisonnements par induction ou analogie
Les exemples ci-dessus sont des généralisations, basées sur la capacité de l'esprit
humain à raisonner par induction, c'est-à-dire à généraliser à partir d'exemples. Ce
type de raisonnement est indispensable, car il permet de construire des abstractions
et des modèles de la réalité indispensables au fonctionnement de notre esprit. Mais il
est aussi dangereux, puisque certaines généralisations peuvent aboutir à des
abstractions ou des modèles qui sont faux. C'est le cas des amalgames, par
exemple : si à trois reprises j'ai rencontré des Grecs qui m'ont volé, je ne peux
généraliser en affirmant que tous les Grecs sont voleurs. Cet exemple est trivial,
mais il y a pourtant beaucoup de gens qui cessent d'écouter un politicien qui a
énoncé une fois ou deux seulement une opinion qu'ils n'approuvent pas…
Et que dire des raisonnements par analogie, où notre esprit néglige certains aspects
de la réalité pour conclure à partir de certains autres qu'une chose est - ou se
comporte - comme une autre…
1.5.2.5
Exemple mathématique de la puissance d’invention de l’esprit humain
Pour cet exemple illustrant la puissance de conception et d'invention de l'esprit
humain, nous avons d'abord besoin de connaître le nombre d'éléments de
l'ensemble des parties d'un ensemble de N éléments.
Commençons par un cas particulier. Considérons l'ensemble de 3 éléments {a, b, c}.
L'ensemble de ses parties est l'ensemble {(a,b,c) ; (a,b) ; (a,c) ; (b,c) ; a ; b ; c ; rien},
33
qui a 8 éléments. Nous remarquons que pour un ensemble de 3 éléments le nombre
d'éléments de l'ensemble de ses parties est 23 = 8.
Cette propriété se généralise facilement à un ensemble de N éléments, dont
l'ensemble des parties comprend 2 N éléments. Cela se voit en remarquant que le
développement de la somme (1 + 1)N a pour termes les nombres de combinaisons
possibles de N éléments pris p à la fois (notés C Np), p variant de 0 à N :
2N = (1 + 1)N = CN0 + CN1 + CN2 + … + CNp + … + CNN,
où CN0 = CNN = 1
Donc l'ensemble des parties d'un ensemble de N éléments comprend 2N éléments,
nombre toujours plus grand que l'entier N > 0. On voit bien, du reste, que l'ensemble
des parties d'un ensemble comprend, en plus de tous les éléments de ce dernier,
d'autres éléments qui en sont des collections : il est donc "plus riche".
Considérons à présent l'ensemble de tous les points géométriques de l'Univers,
chacun pris à tous les instants du passé, du présent et de l'avenir, c'est-à-dire tous
les points du « continuum espace-temps quadridimensionnel » d'Einstein. Imaginons
maintenant qu'en chacun des points de ce continuum on considère toutes les
propriétés physiques possibles, même s'il y en a une infinité : attraction
gravitationnelle, champ électrique, pression, température, etc.
Les couples {point, propriété} constituent les éléments d'un ensemble U qui a la
richesse de l'Univers : il est inconcevable qu'il existe, a existé ou existera dans
l'Univers matériel un couple qui n'appartienne pas à U ; si Dieu a créé l'Univers et
régit son évolution, il a créé et régit tous les éléments de U. Tout objet (réel ou
imaginaire) de l'Univers est un ensemble de couples de U. Et l'esprit humain peut
concevoir l'ensemble P(U) des parties de U, qui regroupe forcément tous les objets
qui ont existé, existent ou existeront dans l'Univers (par exemple toutes ses
galaxies), ainsi que des regroupements de couples qui sont de pures abstractions.
P(U) est donc plus riche que tout ce qui existe, a existé ou existera dans l'Univers.
En concevant P(U), l'homme conçoit quelque chose de plus grand que ce que Dieu a
créé physiquement (dans notre Univers, parce qu'à l'extérieur - s'il y a un extérieur nous ne savons pas et ne saurons jamais). Et dans la science humaine des
mathématiques il existe une théorie, dite des transfinis, qui définit une suite infinie
d'ensembles, chacun infiniment plus riche que le précédent.
En fait, la démonstration ci-dessus repose sur l'hypothèse que l'Univers créé par
Dieu est d'une richesse définie à partir de certains ensembles de points et de
propriétés. La démonstration montre alors que l'homme peut toujours imaginer
des ensembles plus riches que tout ensemble fixe donné ; elle repose donc sur
le fait que notre imagination n'a pas de limite.
L'esprit humain peut donc élaborer des concepts qui ne peuvent représenter quelque
chose qui existe physiquement, tellement ils sont riches : ce sont donc des
abstractions pures. Sa conception d'un Dieu créateur qui existe réellement est donc
suspecte : il se peut qu'elle corresponde à une simple abstraction de l'esprit humain,
comme l'ensemble P(U) précédent.
34
Mais les croyants objecteront à ce raisonnement qu'en créant l'homme Dieu a conçu
aussi son essence, qui comprend la faculté de son esprit d'inventer, donc qu'il a
prévu les transfinis, donc qu'il n'y a rien que l'homme puisse concevoir qui soit plus
grand ou plus riche que Dieu, ou nouveau pour Lui…
1.5.2.6
L'impossible universalisme culturel ou religieux
Je qualifie d' « universelle » une caractéristique vraie en tous lieux, à tout moment et
pour tous les hommes, c'est-à-dire quel que soit le contexte humain. C'est ainsi que
chacune des trois religions monothéistes que sont le christianisme, le judaïsme et
l'islam considère sa révélation et ses valeurs comme universelles. Pour chacun de
leurs croyants tous les hommes devraient avoir les mêmes valeurs, celles
qu'enseigne la religion à laquelle il croit. (Ne pas confondre universel, universalité
[D5] et universaux [168].)
Malheureusement, il n'en est pas ainsi : ces trois religions ont bien des valeurs
communes, mais leurs enseignements diffèrent sur bien d'autres. Et ces différences
ne sont pas limitées au domaine de la foi, elles concernent aussi le domaine culturel.
J'appelle ici « culture » par opposition à « nature » ce qui est production humaine. En
ce sens-là, une religion est une production culturelle, un sous-ensemble d'une culture
particulière. Exemple : il suffit de lire une demi-heure le Coran pour voir que la
religion musulmane provient de la culture d'un certain peuple du désert d'Arabie, tel
qu'il vivait aux environs du VIIe siècle [12].
Une culture ne peut être universelle que si l'on suppose une nature humaine unique,
supposition contredite par les faits historiques et géographiques. C'est ainsi que
certaines valeurs morales (permis/défendu…) et esthétiques (beau/laid…) ont varié
et varient encore selon les époques et les sociétés. Exemples : les opinions sur le
cannibalisme ou la virginité, les canons de beauté féminine… Il existe cependant des
universaux culturels [168].
Puisque toute culture comprend des valeurs, croyances et attitudes n'existant pas
dans les universaux, et que toute religion est une production culturelle plus riche que
ces universaux, il ne peut y avoir de religion universelle, tant pis pour les prétentions
des religions monothéistes ! En général les valeurs morales d'une religion (ou les
valeurs esthétiques d'une culture) ne sont donc valables que pour les fidèles de cette
religion-là ou les personnes qui ont cette culture-là, pas pour les fidèles des autres
religions ou pour les athées, et pas pour les personnes qui ont d'autres cultures. Que
certaines valeurs comme celles des universaux soient communes à plusieurs
religions ne change pas grand-chose au caractère relatif des religions et des
cultures.
Le relativisme culturel, très généralement admis de nos jours par les intellectuels, a
une conséquence importante : il est inadmissible de se référer aux valeurs d'une
culture ou d'une religion pour juger des valeurs d'une autre culture ou d'une autre
religion ! En somme, nous ne voulons plus faire au début du XXIe siècle l'erreur faite
jusqu'au début du XXe, lorsqu'on considérait en Europe les peuples d'Afrique, d'Asie
ou d'Australie comme des sauvages et des mécréants, c'est-à-dire des arriérés bons
à coloniser dans leur propre intérêt.
35
Remarque sur le relativisme culturel : les universaux comprennent des valeurs
universelles parce qu'attachées à la notion même d'être humain ; de telles
valeurs ne peuvent être niées par aucune culture. C'est ainsi que chaque être
humain, quelle que soit sa culture, a droit au respect de son intégrité physique ;
donc aucune culture - fut-elle traditionnelle en Afrique - ne justifie une mutilation
comme l'excision des femmes. Ceux qui, au nom du politiquement correct
représenté par le respect de cultures étrangères, voudraient qu'on tolère en
France des pratiques comme l'excision ou la privation de femmes de certains
droits fondamentaux se comportent comme des barbares.
Ce qui précède étend donc aux domaines culturel et religieux la règle qui s'impose
dans le domaine logique à propos de l'existence de Dieu (être extérieur à notre
Univers), existence qu'on ne peut déduire de constatations faites dans notre
Univers : en matière de culture ou de religion, on ne peut juger les valeurs de l'une à
partir de celles d'une autre, ni d'un point de vue logique ni d'un point de vue moral.
Tout ce qu'on peut faire, à titre d'hypothèse de travail, c'est de supposer que
l'extérieur d'un domaine se comporte comme l'intérieur, mais ce n'est qu'une
hypothèse, un modèle commode dont les conséquences sont à vérifier… mais sont
par définition invérifiables concernant l'extérieur de l'Univers, donc Dieu.
1.5.2.7
Conséquences de la multiplicité des religions
Les croyances religieuses ne sont pas vérifiables, mais les religions sont multiples et
particulières. En supposant que la vérité est une :

Si on considère une religion, dans la totalité des vérités qu'elle révèle, comme
nécessairement ou vraie ou fausse, alors il y a tout au plus une seule des
multiples religions qui est vraie, toutes les autres étant fausses, tant pis pour
leurs adeptes.

Si on considère une religion comme pouvant être partiellement vraie et
partiellement fausse, on se dresse contre tous les croyants de chacune des
religions, qui n'acceptent pas d'en discuter la moindre partie du dogme.
Une croyance religieuse est donc, par nécessité, intolérante : elle renie toutes les
autres, elle les traite d'hérésies et leurs fidèles d'hérétiques. Un fidèle a donc le droit
de ne pas croire sans preuve sauf lorsqu'il s'agit de sa religion : en matière de foi, il
doit renoncer à être rationnel. Il y a des gens qui trouvent un tel renoncement
insultant pour leur intelligence, leur liberté et leur dignité d'homme.
1.5.3
Faiblesse de la preuve téléologique
Par définition, une activité téléologique est dirigée vers un but. Les tenants d'une
preuve téléologique de l'existence de Dieu, tantôt "créationnistes" tantôt partisans de
"l'Intelligent Design" (conception de l'Univers par une Intelligence supérieure) partent
de l'évidence (pour eux) d'une finalité constatable dans notre monde, finalité qu'ils
attribuent à la volonté divine et qu'ils considèrent comme un déterminisme. Pour eux,
et notamment l'Eglise catholique qui l'a réaffirmé en 2005 et encore en 2007 :
« Il est évident que le monde, avec ses lois physiques, et l'homme avec son
âme, ne sont pas le fruit du hasard, mais celui d'une volonté divine, ce qui
prouve l'existence de Dieu, origine de cette volonté. »
36
Certains (mais pas le pape Benoît XVI) s'opposent donc à l'interprétation
darwinienne de l'évolution, qui conjugue hasard lors des mutations et réponse aux
contraintes du milieu lors de la sélection naturelle.
Hélas pour les créationnistes et comme le pape Benoît XVI lui-même l'admet, la
théorie évolutionniste de Darwin est aujourd'hui largement confirmée par les faits et
admise par la communauté scientifique.
Hélas aussi pour eux, la paléontologie a fourni de nombreux exemples incompatibles
avec le créationnisme et la téléologie. Si une finalité dirigeait l'évolution, celle-ci
devrait obéir à des lois générales permettant les prévisions (c'est-à-dire des lois
déterministes), mais ce n'est pas le cas : les lois de l'évolution ont un caractère
chaotique, modélisé de nos jours par la théorie des attracteurs de Prigogine.
Enfin, même si on admet que l'Univers résulte d'une volonté créatrice, donc d'un
Créateur, rien ne permet d'attribuer à celui-ci les qualités de perfection, de
miséricorde, etc. qu'on attribue à Dieu, et ce d'autant moins qu'il y a un problème du
mal cause de bien des souffrances.
On peut aussi présenter le raisonnement téléologique comme suit : « Puisque (pour
un spiritualiste) le monde réel n'est possible que précédé par une Idée (une essence,
un plan), il faut bien que cette idée ait un créateur externe à ce monde, créateur
transcendant incréé appelé Dieu par définition. »
Les tenants de ce raisonnement commencent donc par utiliser deux fois le
postulat de causalité (« monde précédé par une Idée » et « Idée précédée par son
créateur ») avant de l'ignorer en croyant à un « créateur incréé » pour éviter une
embarrassante régression à l'infini de la causalité !
1.5.3.1
Certains phénomènes de la vie résultent du logiciel génétique
La biologie moléculaire moderne montre l'existence d'un programme génétique dans
tout être vivant. Celui-ci est un véritable logiciel, qui s'exécute dans la machinerie
cellulaire en interprétant le code de nos gènes, et régit tous les phénomènes vitaux,
y compris l'adaptation à des environnements changeants par autoprogrammation, la
réparation des défauts de réplication génétique, l'évolution des espèces et la pensée
en général - en tant qu'elle n'existe que par le fonctionnement de nos neurones.
Nous avons donc la preuve que les fonctions les plus nobles de la vie sont créées
par la matière vivante et son logiciel génétique en même temps que ses cellules
sans aucune intervention transcendante (détails). Nous savons même par suite de
quelle confusion certains philosophes se sont trompés en affirmant que l'homme est
libre de ses choix malgré le matérialisme. Nous n'avons cependant pas encore réussi
à créer un être vivant, fut-il seulement unicellulaire, à partir de molécules de chimie
minérale. Certains chercheurs prétendent être près d'aboutir [248], mais à ce jour
(2010) ils n'ont pas encore réussi.
Mais bien entendu, nous n'avons pas - et n'aurons jamais - la preuve qu'une
intervention transcendante est impossible ou qu'elle n'a jamais eu lieu, Kant nous l'a
expliqué depuis longtemps.
Une discussion bien plus complète est disponible dans la 3e partie de cet ouvrage.
37
1.5.3.2
Faiblesse des arguments créationnistes
Tous les arguments invoqués par les créationnistes ont en commun leur
émerveillement devant la complexité et l'adaptation à leur milieu de nombreux êtres
vivants, allant de l'homme avec son intelligence à des bactéries simples mais munies
de flagelles natatoires et de remarquables mécanismes vitaux. Refusant de
concevoir qu'un tel niveau de complexité et d'adaptation soit le fait de mutations
aléatoires (comme le prétend l'évolutionnisme), ils l'attribuent à Dieu. Leur
argumentation souffre de trois défauts :

Ils oublient le temps en supposant que les êtres vivants ont été créés tels que
nous les voyons aujourd'hui.
Mais la vie est apparue sur terre il y a 3.5 milliards d'années, un temps suffisant
pour que plus d'un trillion de générations de bactéries se succèdent, chacune
pouvant faire l'objet de mutations. Les premiers hominidés sont apparus en se
différentiant des singes il y a environ 8 millions d'années, se transformant
ensuite en l'Homo sapiens sapiens actuel en passant par des dizaines d'étapes
intermédiaires que nous connaissons. Et nous connaissons aussi les étapes qui
ont permis aux singes d'apparaître à partir d'êtres moins évolués : ils ont disposé
de centaines de millions d'années, c'est-à-dire de millions de générations
successives susceptibles de muter pour évoluer.
Affirmer que la complexité et l'adaptation du vivant d'aujourd'hui sont trop
improbables pour être le fait de l'évolution darwinienne ne tient pas compte du
temps disponible pour que les générations successives se transforment par
mutations, et que la sélection naturelle ne conserve que les êtres les mieux
adaptés.

Ils oublient le principe d'identité (un des trois principes de base de la logique)
[16] : à un instant donné, une situation est ce qu'elle est (exactement ce qu'elle
est, avec 100 décimales de précision si c'est une valeur de variable physique
mesurée !)
Un homme peut s'étonner de la petitesse de la probabilité que la situation qu'il
constate en cet instant soit survenue par hasard, parce que l'homme s'étonne
facilement de ce qu'il ne s'explique pas. Mais le fait est que la situation en cet
instant ne peut pas être autre que ce qu'elle est ! Donc toute évaluation de la
probabilité pour que la situation (ou une valeur de variable) soit ce qu'elle est qui
ne trouve pas une probabilité de 1 est fausse, c'est une pure spéculation.
Voir la discussion complète là.
Par conséquent, la découverte de résultats étonnants ou de coïncidences dans
une situation réelle est un phénomène psychologique qui ne justifie pas qu'on les
attribue à une volonté divine.

Ils n'ont aucune théorie scientifique à proposer pour remplacer l'évolutionnisme.
En effet, tout le développement des sciences se fait - et avec succès - en
cherchant à expliquer le monde sans recourir à Dieu, à la métaphysique ou à la
magie, en se basant seulement sur des expériences et des déductions logiques.
Attribuer un phénomène du monde réel à Dieu revient à renoncer à l'expliquer
scientifiquement.
38
Le créationnisme n'est pas une théorie, on ne peut en tester les hypothèses
expérimentalement, on ne peut s'en servir pour prévoir l'évolution future, qui
d'ailleurs dépend de Dieu.
Enfin, la preuve téléologique repose sur une faute de raisonnement impardonnable,
bien que fréquemment constatée. Elle consiste à dire : « Puisque je ne puis justifier
de manière scientifique l'harmonie du monde et la complexité de ses créatures, alors
j'attribue ces qualités à la volonté divine. » Elle revient à dire « ce que je ne
comprends pas, je l'attribue à Dieu » ; c'est ce qu'a fait l'Eglise catholique pour bien
des « miracles » restés sans autre explication. Pourquoi ne pas attribuer la création
et l'harmonie inexpliquées du monde et des hommes à une race avancée venue
d'une galaxie lointaine ? L'ignorance ne justifie pas l'invention d'une explication et ne
prouve pas sa valeur !
Voir aussi le rapport parlementaire [D8], qui énumère les arguments scientifiques
contre le créationnisme et en faveur de l'évolutionnisme, et décrit la position militante
des créationnistes européens et américains.
Voir enfin l'étonnant principe anthropique, forme moderne de la même erreur.
1.5.3.3
Psychologie du créationnisme
Nous avons déjà vu que l'homme a imaginé Dieu à son image. L'homme ayant
constamment une finalité dans son action, du fait de ses désirs et de ses penchants
naturels, en l'imaginant il a prêté à Dieu la même préoccupation, tout comme il a
prêté à Dieu la jalousie à l'égard d'autres dieux que Dieu a interdit d'adorer [D1]. Il
est plus rassurant de faire confiance à Dieu, bon et juste, pour diriger l'évolution,
qu'au hasard aveugle et inhumain.
Cette possibilité d'une origine humaine de la téléologie prêtée à Dieu est confirmée
par la position de Kant. Celui-ci attribue bien à la volonté de Dieu la cause morale de
l'ordre et de l'évolution du monde. Mais s'il admet une téléologie morale (qu'on peut
présenter comme une théologie), Kant rejette toute téléologie physique : il démontre
que la raison exclut que la fin ultime de la nature provienne d'un être - Dieu - situé à
la fois dans la nature (c'est-à-dire l'Univers) et en dehors d'elle.
1.5.3.4
La notion d'un Dieu créateur intelligent est contradictoire
Un Dieu qui sait tout ne pense pas, car Il n'a pas de problème à résoudre. Il ne peut
donc avoir d'intention, car une intention est une pensée et suppose un projet
précédant sa réalisation. Si Dieu concevait un projet, il existerait pour Lui une
possibilité qui ne serait pas encore réalisée et Il serait alors fini, ce qui est
contradictoire avec son caractère infini. En somme, on ne peut attribuer à Dieu une
séparation de la pensée et de l'existence, séparation qui impliquerait la finitude. Ce
raisonnement a été fait par Spinoza, qui en a conclu que l'existence d'un Dieu
créateur intelligent est une absurdité, ce qui rend également absurde la notion de
finalité divine gouvernant le monde, donc aussi celle de divine Providence.
La contradiction inhérente à la notion de Dieu créateur intelligent s'ajoute à celle déjà
constatée plus haut concernant le problème du mal, contradiction qui a obligé les
croyants à déclarer que « Dieu laisse à l'homme son libre arbitre », et qu'il faut en
39
matière divine renoncer à la raison car que « les voies du Seigneur sont
impénétrables ».
Ces deux exemples de contradiction incitent à la prudence : penser l'infini, quand on
est un homme qui ne dispose que de concepts et de mécanismes de pensée logique
adaptés à son univers limité, risque de mener à des contradictions.
Comme certains philosophes l'ont remarqué, Dieu est donc une illusion, une
projection irrationnelle de nos désirs, de nos peurs et de nos espoirs : l'homme a
conçu Dieu à son image, et celle-ci est pleine de contradictions.
1.5.4
Il faut veiller à ne manipuler que des concepts représentables
Nous allons voir dans ce paragraphe que même si on imagine un concept non
contradictoire d'infini (comme un Dieu tout-puissant mais ne créant pas et ne faisant
pas de projet), on risque de ne pouvoir s'en servir pour réfléchir sur notre monde,
faute de pouvoir se le représenter clairement ; si on réfléchit avec, on risque de
manipuler des mots creux au lieu de garder ses deux pieds sur terre. Rappelons que
pour qu'une abstraction ait un sens dans notre conscience, il faut impérativement
qu'elle puisse être représentée par une perception sensible. Exemples :

Pour que le concept de "cercle" ait assez de sens pour que je puisse m'en servir
pour réfléchir, je dois pouvoir l'associer à quelque chose de concret, comme le
dessin d'un rond sur une feuille de papier.

Dans ce texte sur le déterminisme il nous faudra étendre le domaine des
perceptions sensibles à l'interprétation des phénomènes décrits par des
équations et des fonctions, seule manière de les représenter à l'échelle
atomique, trop petite pour nos sens. Nous arriverons à nous représenter
mentalement ces équations et fonctions en songeant à des images de courbes
ou de surfaces auxquelles chacun peut s'habituer peu à peu.
Hélas, il n'est pas possible de représenter l'infinité de Dieu à l'aide d'une image, d'un
schéma ou d'une équation ; on ne peut le définir qu'avec des règles comme "Il est
plus grand que tout", "Il sait tout" ou "la divine Providence est infiniment secourable",
et ces règles ne sont pas représentables de manière sensible.
Si je reprends alors, par exemple, la notion de "Providence infiniment secourable"
que j'ai acceptée sans me la représenter, et que je l'applique au monde dans lequel
je vis, avec ses guerres et ses souffrances, la contradiction saute aux yeux : la notion
contredit la réalité dans de nombreux cas. En fait, c'est l'application même de la
notion de Providence au monde concret qui en construit des représentations, et ce
sont celles-ci qui montrent son caractère contradictoire. On voit sur cet exemple à
quel point il est indispensable de valider un concept au moyen de représentations
sensibles de ce qu'il implique.
Exemple : si on me propose un emploi d'un type nouveau pour moi, avant de
l'accepter ou de le refuser je dois me représenter concrètement, au moyen
d'exemples, mon activité dans le cadre de cet emploi. Que ferai-je chaque jour,
en serai-je capable, serai-je heureux de le faire, etc.
On trouvera une discussion plus approfondie de ce sujet dans l'ouvrage de Luc Ferry
[7], qui résume bien le problème, et notamment la citation [D9].
40
1.6
Agnosticisme et athéisme
La position de Kant sur l'existence physique d'un Dieu créateur est un agnosticisme :
pour lui, une telle affirmation est indémontrable dans le cadre de la logique et
l'existence de Dieu est un postulat, comme l'immortalité de l'âme et le libre arbitre de
l'homme. Ces postulats sont à la fois indémontrables et (pour un croyant)
indispensables au devoir de respect des règles morales.

Pour un athée, une bonne action n'est pas nécessairement récompensée et une
mauvaise action n'est pas nécessairement punie. Il n'y a donc pas de raison
logique de respecter les règles morales, et c'est à la société de promulguer,
enseigner puis faire respecter des lois, bien qu'une loi soit souvent incapable de
remplacer une règle morale.

Pour un croyant, toutes les actions, bonnes ou mauvaises, sont tôt ou tard
récompensées ou punies par Dieu. Il est donc indispensable de postuler Son
existence pour justifier logiquement l'obligation de chacun de faire son devoir.
Le caractère indémontrable de l'existence de Dieu à partir des concepts issus de la
nature et des lois de la raison peut être rapproché des deux théorèmes de Gödel.
Ces théorèmes, dits « d'incomplétude », affirment que dans tout système formel
(axiomatique) comprenant l'arithmétique il existe des propositions dont on ne peut
démontrer ni la véracité ni la fausseté. On ne peut même pas prouver que les
axiomes de base de ce système sont cohérents (c'est-à-dire non contradictoires) [6].
En plus, dans la mesure où un système formel constitue un langage, il est impossible
de définir la vérité dans ce langage même, il faut recourir à un langage plus puissant,
extérieur au premier. Nous verrons cela plus en détail dans la 3e partie.
1.6.1
Le pari de Pascal
Pascal a admis qu'on ne pouvait démontrer l'existence de Dieu comme on démontrait
un théorème de géométrie. Le pari qu'il propose aux incroyants consiste à dire que,
puisqu'on ne peut prouver que Dieu existe, il est sage de parier que c'est le cas : si
on perd son pari parce que Dieu n'existe pas, on ne perd que le temps et les efforts
d'une courte vie terrestre, alors que si Dieu existe on gagne la félicité éternelle ; le
bénéfice potentiel étant infini alors que la perte potentielle est finie, il faut parier sur
l'existence de Dieu.
Il est clair que ce raisonnement est faible.

D'abord il remplace la recherche de la vérité (Dieu existe-t-il ?) par celle de
l'intérêt personnel, ce qui est suspect et incite à soupçonner que cette vérité est
fausse, peu probable ou impossible à démontrer.

Ensuite, rien ne prouve qu'il n'y ait que deux possibilités, l'existence de Dieu
avec un Paradis, un Purgatoire et un Enfer, ainsi que les commandements
chrétiens et la vie éternelle ; et la non-existence : si Dieu et la vie après la mort
étaient autrement que l'Eglise les imagine, on aurait peut-être parié à tort en
omettant d'autres choix.

Et si les probabilités étaient autres (par exemple 99 chances sur 100 d'aller au
Paradis même si on a beaucoup péché, parce que Dieu pardonne), l'effort de
vivre en respectant les règles morales serait-il toujours justifié ?
41
A mon avis, le pari de Pascal est le genre de raisonnement qui passe bien auprès
d'un auditoire pendant le discours d'un orateur habile, parce qu'il a l'air correct et que
l'orateur est sympathique, mais pas un raisonnement qu'on peut soutenir par écrit
pour des gens qui réfléchissent.
1.6.2
Athéisme, positivisme et altruisme
Le choix d'être athée est aussi justifié - ou peu justifié - que celui d'être croyant. Les
philosophes positivistes ont cru que la connaissance scientifique (démontrable ou
justifiable par l'expérience) pouvait et devait remplacer la foi révélée en Dieu. Ils ont
donc accusé les croyants d'avoir inventé, dans leur religion, un mythe basé sur une
illusion destinée à consoler les malheureux, à leur laisser espérer qu'après leur mort
ils obtiendront bonheur et justice. Freud disait que la religion procède toujours d'une
illusion, provenant du désir infantile de protection et de consolation.
En fait, que l'on soit croyant ou non, il faut pouvoir adopter, à l'échelle individuelle
comme à l'échelle sociétale, une morale, c'est-à-dire des règles de comportement
permettant une vie en société harmonieuse. Le problème est alors de définir et
justifier des règles où l'égoïsme de l'individu passe après l'intérêt de la société.

Avec la religion, ce problème est résolu et les règles sont clairement enseignées,
avec menace d'aller en Enfer si on les enfreint et promesse de Paradis après
une vie vertueuse : la carotte et le bâton.

Sans religion, Kant a montré que la raison ne pouvait pas justifier l'altruisme et
l'universalité [D5] (pourquoi sacrifier mon intérêt personnel à celui d'autrui ou de
la société, en l'absence de crainte de punition divine ou d'espoir de récompense
dans l'au-delà ?).
Kant a donc proposé, aux croyants comme aux athées, un axiome de valeur
suprême remplaçant la vérité révélée : le devoir. Un homme doit faire son devoir,
donc être vertueux, parce que c'est son devoir, que c'est la seule manière d'avoir
une conduite méritante. En fait, il doit incorporer à son subconscient les règles
morales si parfaitement qu'il puisse se passer de la peur du châtiment divin ou
du gendarme, et de tout espoir de récompense ; sa raison d'être vertueux doit
être le sens du devoir qu'il a en lui-même, et être acquise peu à peu par
éducation et imitation des hommes sages.
Nous verrons dans la 3e partie de cet ouvrage que la confiance de Kant dans le
pouvoir de la raison d'imposer à un homme de faire son devoir est un vœu pieux.
Comme Freud l'a montré, ce n'est pas le cas : tout homme a un ensemble
ordonné de valeurs, et si son désir d'être vertueux et de faire son devoir est
moins fort qu'un autre désir, il ne peut vouloir faire son devoir, il s'efforcera de
satisfaire son désir le plus fort.
1.6.3
Existe, n'existe pas ou existe autrement ?
Dans ce qui précède nous n'avons envisagé que deux hypothèses : « Dieu existe »
et « Dieu n'existe pas ». Pourquoi n'y en aurait-il pas une troisième, « Dieu existe
autrement ? » Plus précisément, pouvons-nous répondre à la question suivante : « Y
a-t-il quelque chose d'externe à notre Univers (c'est-à-dire de transcendant) qui
puisse influer sur ce qui s'y passe ? »
42
Cette dernière question peut être reformulée en faisant intervenir le déterminisme :
« Y a-t-il des phénomènes de notre Univers qui n'obéissent pas au déterminisme,
dont les causes sont entièrement internes à notre Univers ? ».
Un cas particulier de ce problème est particulièrement important par ses implications
morales : « Un homme est-il libre de décider ce qu'il veut, cette liberté impliquant la
possibilité d'échapper au moins en partie au déterminisme, ou toutes ses décisions
sont-elles déterminées par des causes internes à notre Univers ? » Ces points sont
abordés dans la 3e partie de cet ouvrage.
43
1.7
Conclusions
A ma connaissance, aucun philosophe à ce jour n'a réussi à invalider ou même à
perfectionner substantiellement les conclusions de Kant. On ne peut démontrer :

Ni que Dieu existe, ni qu'Il n'existe pas ;

(S'Il existe) qu'Il a créé ou non le monde ; qu'Il y intervient ou non ; qu'il est bon...
Croire en Dieu reste donc une possibilité pour les hommes qui veulent une
justification religieuse du devoir d'une conduite morale, mais en tant que postulat. Et
pour ce qui est d'expliquer par l'existence de Dieu la création et le fonctionnement du
monde physique, ainsi que de lui donner une finalité, c'est indémontrable et ne peut
résulter que d'un choix personnel purement arbitraire, par exemple dans le cadre
d'une des religions qui apportent une réponse.
Cet ouvrage soutient qu'on peut se passer de croire en Dieu et en son intervention
pour expliquer le monde et la vie, notamment celle de l'homme, intelligent et libre. Et
il laisse soupçonner - sans preuve, ce n'est qu'un soupçon - que Dieu a été inventé
par l'homme pour répondre à des besoins psychologiques comme donner un sens à
sa vie et au monde, répondre aux problèmes du salut et du besoin de justice, etc.
Le livre [5], publié en septembre 2006 par le philosophe français André ComteSponville, montre avec un texte clair et facile à lire qu'on peut se passer de religion et
trouver une morale et une spiritualité sans Dieu, sans religion révélée, sans Eglise.
Le court texte de J-P Sartre "L'existentialisme est un humanisme" [15] apporte un
point de vue intéressant sur l'existence de Dieu et la liberté de l'homme. Pour un
débat plus large, voir la 2ème partie de cet ouvrage-ci.
44
1.8
Références
[D1] "Tu n'auras pas d'autres dieux devant ma face" et autres interdictions concernant
d'autres dieux dans la Bible http://www.onlinebible.org/html/fre/ : Exode 20-3, 22-20,
23-13 ; Deutéronome 5-7, 6-14, 7-4, 8-19, 11-16 ; Josué 23-16, etc.
[D3] "Les voies du Seigneur sont impénétrables" :

Descartes - "Méditations métaphysiques" http://abu.cnam.fr/cgibin/donner_html?medit3
"…il ne me semble pas que je puisse sans témérité rechercher et entreprendre
de découvrir les fins impénétrables de Dieu."

Bible Louis Segond http://www.onlinebible.org/html/fre/ : Psaumes chapitre 139,
verset 17 :
"Que tes pensées, ô Dieu, me semblent impénétrables ! Que le nombre en est
grand !"
[D4] The New York Times, citant le Cardinal Schönborn : "Leading Cardinal
Redefines Church's View on Evolution" (09/07/2005)
http://select.nytimes.com/search/restricted/article?res=FB0D13FE3E590C7A8CDDA
E0894DD404482
Citations :
"The cardinal, Christoph Schönborn, archbishop of Vienna, a theologian who is
close to Pope Benedict XVI, staked out his position in an Op-Ed article in The
New York Times on Thursday, writing, 'Evolution in the sense of common
ancestry might be true, but evolution in the neo-Darwinian sense -- an unguided,
unplanned process of random variation and natural selection -- is not.' ''
"In his essay, Cardinal Schönborn asserted that he was not trying to break new
ground but to correct the idea, 'often invoked,' that the church accepts or at least
acquiesces to the theory of evolution."
[D5] Définitions des qualités d'altruisme et d'universalité utilisées dans ce texte :

Altruisme : désintéressement, abnégation, générosité, faire passer l'intérêt de
l'autre avant le mien ;

Universalité : ensemble des hommes, société tout entière, faire passer l'intérêt
général avant le mien.
[D6] "Valeurs perdues, bonheur perdu : pourquoi notre société déprime - Sociologie
de la sinistrose française" http://www.danielmartin.eu/Cours/Sinistrose.pdf
[D7] Position officielle du pape Benoît XVI sur le créationnisme et l'évolutionnisme
http://www.vatican.va/holy_father/benedict_xvi/speeches/2007/july/documents/hf_be
n-xvi_spe_20070724_clero-cadore_fr.html
45
Extrait de la réponse de Benoît XVI à une question posée le 24/07/2007 :
"Je vois actuellement en Allemagne, mais aussi aux Etats-Unis, un débat assez
vif entre ce qu'on appelle le créationnisme et l'évolutionnisme, présentés comme
s'ils étaient des alternatives qui s'excluent : celui qui croit dans le Créateur ne
pourrait pas penser à l'évolution et celui qui en revanche affirme l'évolution
devrait exclure Dieu. Cette opposition est une absurdité parce que, d'un côté, il
existe de nombreuses preuves scientifiques en faveur d'une évolution qui
apparaît comme une réalité que nous devons voir et qui enrichit notre
connaissance de la vie et de l'être comme tel. Mais la doctrine de l'évolution ne
répond pas à toutes les questions et surtout, elle ne répond pas à la grande
question philosophique : d'où vient toute chose ? et comment le tout s'engage-t-il
sur un chemin qui arrive finalement à l'homme ? Il me semble très important et
c'est également cela que je voulais dire à Ratisbonne dans ma Conférence, que
la raison s'ouvre davantage, qu'elle considère bien sûr ces éléments, mais
qu'elle voit également qu'ils ne sont pas suffisants pour expliquer toute la réalité.
Cela n'est pas suffisant, notre raison est plus ample et on peut voir également
que notre raison n'est pas en fin de compte quelque chose d'irrationnel, un
produit de l'irrationalité, mais que la raison précède toute chose, la raison
créatrice, et que nous sommes réellement le reflet de la raison créatrice. Nous
sommes pensés et voulus et, donc, il existe une idée qui me précède, un sens
qui me précède et que je dois découvrir, suivre et qui donne en fin de compte un
sens à ma vie."
La position du pape, qui admet l'évolution, contredit sur ce point celle du cardinal
Schönborn [D4].
[D8] Rapport à l'assemblée parlementaire du Conseil de l'Europe "Les dangers du
créationnisme dans l’éducation" (8 juin 2007)
http://assembly.coe.int/Mainf.asp?link=/Documents/WorkingDocs/Doc07/FDOC1129
7.htm
[D9] Citation de Luc Ferry issue de [7], pages 137 à 143 :
"un être fini qui tente de penser l'infini ne peut jamais échapper à la
contradiction, mais il peut seulement choisir de situer cette contradiction dans le
fait de nier son propre point de vue (alors, suivant la logique du concept, il
obtiendra un concept non contradictoire mais irreprésentable), ou dans le fait de
déformer, par son point de vue, le concept qu'il tente de penser (alors, suivant la
logique du schème, le concept deviendra représentable mais contradictoire)."
[D10] Réflexion consciente pour trouver un sens
Voir le paragraphe au titre ci-dessus dans « Besoin de sens et raisonnements faux »
http://www.danielmartin.eu/Philo/BesoinDeSens.pdf .
46
Deuxième partie
2.
Matérialisme et spiritualisme
"L'homme n'est qu'un roseau, le plus faible de la nature, mais
c'est un roseau pensant. […] Toute notre dignité consiste donc
en la pensée. C'est de là qu'il nous faut relever et non de
l'espace et de la durée, que nous ne saurions remplir.
Travaillons donc à bien penser voilà le principe de la morale."
Blaise Pascal - Pensées [66]
47
2.1
Matérialisme et spiritualisme : définitions
Matérialisme et spiritualisme sont deux doctrines philosophiques opposées.
2.1.1
Définition succincte du matérialisme
La doctrine matérialiste postule que toute réalité - qu'il s'agisse d'objets, d'êtres
vivants ou d'événements – est faite de matière, a pour cause des processus
physiques, ou même se réduit à de tels processus ; en particulier, l'esprit humain est
lui-même une manifestation de l'activité de ses neurones, activité dont il est la
conséquence et sans laquelle il n'existe pas.
Nous verrons, en définissant le déterminisme étendu, que tout phénomène de la
nature obéit à des lois physiques, et que toutes les lois physiques sont gouvernées
par le déterminisme étendu. Postuler le matérialisme oblige donc à postuler le
déterminisme, et nous verrons que postuler le déterminisme étendu oblige à postuler
le matérialisme.
2.1.2
Définition succincte du spiritualisme
La doctrine spiritualiste postule l'existence d'une réalité immatérielle, donc non
perceptible pour les sens de l'homme ou ses instruments de mesure. Cette réalité
immatérielle est décrite par les concepts d'Idée, d'essence, de divinité et d'âme, et la
réalité matérielle en découle : le monde a été créé par Dieu, c'est un résultat de Sa
volonté ; Dieu a aussi défini et créé l'essence de l'homme (sa définition abstraite, en
quelque sorte), qui précède l'existence de son corps matériel, comme l'essence de
tout objet réel précède l'existence de celui-ci.
Pour un spiritualiste comme l'étaient les platoniciens, les objets réels ne sont que des
copies d'idées transcendantes, seule réalité objet de la connaissance. Les vérités
mathématiques, même si ce sont de pures abstractions comme la théorie des
ensembles ou l'arithmétique, sont absolues, éternelles et objectives, bref
universelles ; elles seraient tenues pour vraies même par les habitants d'un autre
système solaire. Pour plus de détails, voir le paragraphe sur les platoniciens.
2.1.3
Ce qui oppose matérialistes et spiritualistes – Réalisme et idéalisme
Du temps des anciens Grecs comme aujourd'hui, les philosophes se sont opposés
sur la question de savoir ce qui est réel.

Certains philosophes, appelés matérialistes, considèrent que les objets
matériels existent vraiment, que la réalité objective existe aussi et qu'elle est
perceptible par nos sens : « Je vois une table, donc elle existe et elle existe
objectivement aussi pour mon voisin. » Descartes, se demandant s'il existait
bien, a fini par conclure : « Je pense, donc je suis [c'est-à-dire j'existe] ».
Le matérialisme postule que la réalité (l'Univers) existe indépendamment de
l'homme qui se la représente mentalement, bien que l'esprit d'un homme soit
incapable de distinguer entre la réalité et sa représentation (voir citation de
Kant : « cent thalers que j'imagine simplement sont exactement pareils [dans ma
pensée] à cent thalers qui existent réellement… ») Ce postulat d'indépendance
entre la réalité et ses représentations mentales est connu sous les noms de
« postulat de réalisme » ou de « postulat de réalisme métaphysique ».
48
Le postulat opposé au réalisme est l'idéalisme (synonyme dans ce texte de
spiritualisme), qui n'admet pas que la réalité externe soit la cause de nos
représentations :
 Soit parce que la réalité matérielle n'existe pas, car seul existe réellement
l'esprit qui la perçoit (postulat d'immatérialisme de Berkeley et Nietzsche) ;
 Soit parce que toute réalité externe est une représentation d'une conscience
ou d'un sujet pensant ;
 Soit parce qu'il confond et désigne d'un même mot, comme Platon,
l'existence et l'essence (chose en soi abstraite, qui est un ensemble
d'Idées) : l'homme ne voit que la projection de la réalité sur le mur de la
caverne.
Dans le langage courant, un matérialiste est une personne qui s'attache
essentiellement aux valeurs, aux biens et aux plaisirs matériels. Nous
n'utiliserons pas ce sens du mot dans la suite du texte, où le mot matérialisme
ne nous intéressera que dans son sens philosophique, où il désigne un principe
métaphysique affirmant que « tout est matière ou issu de la matière ».

Les philosophes non matérialistes, appelés spiritualistes ou idéalistes,
considèrent qu'il existe un principe spirituel, l'âme, distinct et indépendant du
corps de l'homme, et que l'esprit est « supérieur » à la matière. (Je n'ai jamais vu
d'énoncé clair des supériorités de l'esprit sur la matière.)
Les spiritualistes pensent que les concepts et opérations intellectuelles de
l'homme ne peuvent s'expliquer par les seuls phénomènes physiologiques. Ils
pensent aussi qu'il y a dans l'homme deux types de besoins différents :
 les besoins physiologiques (manger, dormir...)
 les désirs proprement humains (être apprécié…)
Pour un spiritualiste l'homme a deux dimensions : l'âme et le corps, l'âme étant
supérieure au corps (toujours sans définition précise de l'âme et sans qu'on
sache clairement en quoi réside cette supériorité).
A partir de la description du spiritualisme qui précède, une première remarque
s'impose à un esprit soucieux de rigueur : les concepts de base du spiritualisme
("principe spirituel", "esprit", "âme", "impossibilité de réduire l'esprit de l'homme à
une émanation de son corps", "supériorité"…) sont vagues ; il n'en existe aucune
définition précise et leur compréhension fait appel à l'intuition irrationnelle.
Pour une description plus complète de la doctrine idéaliste de Platon voir le texte :
Nietzsche en langage clair http://www.danielmartin.eu/Philo/volontepuissance.pdf .
Conclusion
Alors que le matérialisme affirme que l'esprit d'un homme et ses idées sont
conséquences du fonctionnement physiologique de son corps, sans lequel ils ne
peuvent exister, le spiritualisme et l'idéalisme affirment que la matière n'est qu'une
émanation de l'esprit, seule réalité ultime.
Exemple de philosophe spiritualiste : Platon
Depuis le philosophe grec Platon, l'homme sait qu'il est trompé par ses sens, et que
ce qu'il voit n'est qu'un reflet de la réalité, reflet construit par son esprit lorsque celui49
ci se représente cette réalité. L'homme est victime de ses idées préconçues, de ses
erreurs, de ses craintes, de ses illusions et de ses attentes.
Platon a décrit l'illusion de la vision humaine dans un texte célèbre, "l'allégorie de la
caverne", appelé aussi "mythe de la caverne" [M1]. Ce texte affirme que l'homme
prend souvent l'image construite par son esprit (ce qu'il croit voir ou même ce qu'il a
envie de voir) pour la réalité. Platon en a déduit qu'il ne faut pas chercher à connaître
la réalité matérielle, qui restera toujours cachée ou déformée par nos sens et le
processus de représentation de notre esprit. Il affirme qu'il existe une organisation et
une harmonie du monde qui précèdent toute matière : Platon était donc spiritualiste.
En somme pour Platon, et depuis son époque pour tous les spiritualistes, l'idée
(l'essence, le plan, les propriétés) d'une chose matérielle existe toujours avant cette
chose. L'homme accède à cette réalité spirituelle uniquement au moyen de son
intuition, qui lui en fournit une « connaissance immédiate ». Pour Platon, cette réalité
de l'essence est objective, elle existe indépendamment de l'homme (comme, par
exemple, les nombres), et c'est la seule réalité, la réalité physique étant inaccessible.
C'est donc aussi la réalité ultime, celle à laquelle on parvient en analysant la réalité
perçue : la table est faite de bois, le bois est fait d'atomes (les Grecs Empédocle,
Leucippe, Démocrite, Épicure… concevaient intuitivement l'atome, plus petite partie
d'un objet parce qu'elle est indivisible) et cet atome matériel dérive de l'idée d'atome,
réalité ultime.
L'idéalisme philosophique postule que la réalité a pour base des idées, et l'idéalisme
épistémologique postule que notre esprit ne peut appréhender que ses propres
idées, donc que pour un homme l'existence des objets est conditionnée par celle de
ces idées. L'idéalisme s'oppose donc au matérialisme.
Pour plus de détails, voir le paragraphe sur les platoniciens.
Matérialisme et existence objective
Le matérialisme, au contraire, définit la matière comme tout ce qui existe ; et cette
existence est indépendante de l'esprit de l'homme, qui n'est que notre perception de
phénomènes physiques cérébraux. L'opposé de matérialisme est donc spiritualisme.
Nous allons voir que ces deux doctrines s'excluent mutuellement.
Voir aussi le paragraphe Transcendance avec et sans caractère surnaturel.
2.1.4
Qu'est-ce qui précède l'autre : l'esprit ou la matière ?

Pour un matérialiste, la matière précède la pensée - qui en est une
conséquence, et l'esprit - qui est le cadre où s'organise la pensée. L'homme a
existé avant d'inventer les notions d'esprit et de divinité, concepts formés dans
sa pensée, dont le siège est le cerveau. Et à sa mort, sa pensée cesse d'exister.

Pour un spiritualiste, l'esprit a existé en premier et a créé la matière. En
particulier, l'homme matériel et spirituel a été créé par un esprit, une idée ou
Dieu. Et à la mort de son corps il n'y a pas de raison que son esprit meure, ni
son âme s'il en a une ; au contraire, son esprit peut avoir une vie après la vie et
son âme est immortelle.
50
Il est clair que ces deux conceptions s'excluent mutuellement. Pour un matérialiste
« l'existence précède l'essence », comme disait Sartre dans [15] à propos de
l'homme, qui s'invente lui-même après sa naissance en exerçant son libre arbitre ;
l'essence ne précède l'existence que lorsque l'homme fait un plan d'un objet avant de
le fabriquer. Pour un spiritualiste c'est le contraire : l'essence précède l'existence.
Un matérialiste cohérent est athée, alors qu'un spiritualiste croit en Dieu ou en un
Esprit créateur du monde et de l'homme.
51
2.2
Vie biologique, matérialisme et spiritualisme
Pour un matérialiste, un être vivant est fait de molécules matérielles, soumises aux
lois de la physique, de la chimie et de la biologie. Il considère que ses actes, ses
transformations (croissance, etc.) et tout ce qui lui arrive pendant sa vie d'être vivant,
tout cela est soumis à ces lois de la nature.
Certaines lois sont connues, d'autres encore à découvrir, mais tous les événements
de la vie sont soumis à des lois scientifiques, aucun n'est soumis à une volonté
divine, à une prédétermination qui constituerait l'essence de l'homme, c'est-à-dire
son "cahier des charges", sa "spécification fonctionnelle" ou son destin.
Cette conception matérialiste de la vie est appelée "mécanisme" par les
philosophes ; c'est une théorie qui affirme que tout ce qu'on observe chez un être
vivant, tout ce qui lui arrive, se déduit « mécaniquement » de son passé et de
l'application des lois scientifiques, lois qui admettent dans certains cas l'existence du
hasard et qui relèvent du déterminisme.
Conclusion : l'adoption de la doctrine matérialiste entraîne nécessairement celle
du déterminisme ; mais compte tenu des inadéquations du déterminisme
traditionnel, nous verrons qu'il s'agit du déterminisme étendu.
Pour un spiritualiste, au contraire, un être vivant ne peut pas fonctionner comme une
machine qui obéit aux seules lois scientifiques découvertes par l'homme. Les
spiritualistes reprochent aux mécanistes leur conception de l'homme qui fait
dépendre tout acte, à un instant donné, de données physiques, de lois scientifiques
et de hasard, mais pas de quoi que ce soit d'immatériel ou produit par une idée. Pour
un spiritualiste, si les actes d'un homme étaient de telles conséquences
automatiques ou un pur effet du hasard, sa liberté de choix n'existerait pas et il ne
serait pas responsable des conséquences de ses choix et de ses actes.
En particulier, un assassin aurait forcément assassiné sa victime et on ne
pourrait lui reprocher cet assassinat, conséquence de circonstances et de lois
dont il n'est pas responsable.
Les spiritualistes ne séparent donc pas l'explication de la réalité et son interprétation
morale, à laquelle ils veulent que la réalité soit soumise. Ils refusent aussi que la
mort d'un homme soit la fin de tout ce qui comptait pour lui, et croient en un salut
dans une vie après la mort. Bref, ils ne distinguent pas ce qui est de ce qu'ils
voudraient.
2.2.1
Explication des phénomènes constatés par une finalité supérieure
Un spiritualiste trouve insupportable l'idée que l'homme n'est ni libre de ses choix ni
responsable. Il soutient, au contraire, que le comportement de l'homme et sa vie
biologique sont soumis à l'esprit : celui de Dieu ou d'une puissance créatrice de
l'Univers, dont la volonté est responsable de l'harmonie qui y règne et de l'évolution
des êtres vivants. Il soutient que tout s'explique par une finalité supérieure,
déterminisme divin qui a laissé à l'homme une certaine liberté, appelée « libre
arbitre ».
Le spiritualisme explique la beauté et l'harmonie de l'Univers, ainsi que
l'existence de créatures aussi élaborées que les animaux et l'homme, par
52
l'impossibilité que de telles merveilles soient le fruit du hasard. Il croit en
l'existence d'une conception initiale qui a voulu que cela soit ainsi, donc d'un
concepteur qui avait une finalité supérieure. Les Américains appellent ce
postulat sur la création du monde "Intelligent Design" (conception intelligente).
Un spiritualiste n'aime pas, non plus, expliquer un événement en l'attribuant au
hasard, parce que croire au hasard c'est accepter que le monde n'a pas toujours un
sens, ce qui contredit le principe même du spiritualisme : tout ce qui est, tout ce qui
advient, résulte d'une idée et a donc un sens, même si celui-ci nous est caché.
Le spiritualisme critique donc la confiance en la science. Pour cette doctrine, seules
les productions de l'esprit humain comme l'art et la philosophie peuvent rendre
compte de l'esprit ; et elles le font en partant de l'intuition, pas de la raison.
Un matérialiste cohérent, donc athée, considère que le spiritualisme en général et les
religions en particulier relèvent d'une illusion anthropocentriste et de superstitions. Le
matérialisme récuse donc l'intervention dans notre Univers de toute cause extérieure
à lui, de tout surnaturel, de tout esprit immatériel - donc de Dieu ; il en refuse même
la possibilité d'exister physiquement.
2.2.2
L'opposition entre matérialistes et spiritualistes
Il est fréquent que matérialistes et spiritualistes soient intolérants vis-à-vis les uns
des autres, et qu'ils militent pour convertir ceux qui s'opposent à leur point de vue.
Karl Marx, matérialiste pur et dur, écrivait dans [M2] :
"L'homme fait la religion, ce n'est pas la religion qui fait l'homme. La religion est
en réalité la conscience et le sentiment propre de l'homme qui, ou bien ne s'est
pas encore trouvé, ou bien s'est déjà reperdu."
"La religion est le soupir de la créature accablée par le malheur, l'âme d'un
monde sans cœur, de même qu'elle est l'esprit d'une époque sans esprit. C'est
l'opium du peuple.
Le véritable bonheur du peuple exige que la religion soit supprimée en tant que
bonheur illusoire du peuple."
Il voulait dire :

Que la religion est une invention humaine, une illusion, une superstition.

Qu'historiquement la religion chrétienne a promis le bonheur après la mort pour
que les gens du peuple malheureux (les prolétaires), opprimés et exploités par
les capitalistes, ne se révoltent pas pendant cette vie-ci contre ceux qui les
oppriment et les exploitent. Il considérait donc que la religion endormait le peuple
comme l'opium endort celui qui le fume, et que l'Eglise a donc toujours été de ce
fait complice des tyrans et des exploiteurs.
En somme, alors que le matérialisme explique un fait constaté à partir de ses causes
logiques et du hasard, c'est-à-dire en quelque sorte « de bas en haut », le
spiritualisme l'explique à partir d'une volonté et d'une conception supérieures, c'est-àdire « de haut en bas ».
53
On peut dire aussi que le matérialisme implique une connaissance par constatation,
preuve et démonstration (donc de type scientifique), alors que le spiritualisme
implique une connaissance par intuition ou révélation religieuse.
2.2.3
Explication matérialiste et niveaux d'abstraction
Prétendre que le matérialisme explique les phénomènes complexes « de bas en
haut » ne suffit pas : comment expliquer l'humour, par exemple, à partir de molécules
organiques ? Expliquer, c'est décrire d'une manière qui fait comprendre, et il est
impossible de faire comprendre un phénomène complexe de haut niveau à partir de
phénomènes de trop bas niveau : nous verrons par la suite qu'il faut recourir à des
niveaux d'abstraction intermédiaires, tels qu'à chaque niveau les phénomènes
s'expliquent à partir du (des) niveau(x) précédent(s). On arrive ainsi à expliquer un
phénomène de haut niveau par un graphe explicatif hiérarchisé, dont chaque nœud
s'explique par des nœuds du (des) niveau(x) inférieur(s).
Les spiritualistes ne voient pas comment on explique des actions humaines, des
pensées ou des sentiments à partir de phénomènes matériels, simplement parce
qu'ils s'y prennent mal :

D'abord on doit recourir à une hiérarchie de phénomènes de niveaux
intermédiaires, dont on explique les lois ;

Puis on doit associer la notion de logiciel (par exemple génétique) à la matière
des cellules du corps humain : nous verrons cela plus loin.
Ce n'est pas simple, mais c'est la seule manière de rendre compréhensibles à notre
esprit humain des phénomènes complexes. Et l'honnêteté exige de reconnaître que
beaucoup de phénomènes restent inexpliqués par la science : quand on pourra
m'expliquer pourquoi j'aime la musique à l'aide d'une hiérarchie basée sur des
phénomènes neuronaux…
Pas plus que le spiritualisme, le matérialisme n'est capable de fournir une vérité
absolue ; il est seulement capable parfois d'expliquer quelque chose de complexe à
partir de choses plus simples et de lois déterministes - et encore, pas toujours ; mais
il finit par admettre sans démonstration des faits et lois de base, c'est-à-dire une
axiomatique [67]. Les seuls arguments en faveur d'une telle axiomatique sont qu'elle
est falsifiable [203] et qu'elle n'a pas encore été contredite par un phénomène
observé ou une conséquence prévisible.
Malgré ses limites, l'explication matérialiste ainsi définie reste à mon avis préférable
à l'approche spiritualiste, qui explique les phénomènes incompris comme l'amour par
d'autres notions incomprises et vagues comme « l'esprit », « Dieu », etc., notions
infalsifiables [203] correspondant à des forces et des lois dont on ne peut prouver ni
l'existence et l'intervention, ni l'inexistence et la non-intervention.
54
2.3
Arguments des spiritualistes contre le matérialisme
2.3.1
La preuve téléologique
Nous avons déjà cité la preuve téléologique basée sur l'intuition de l'impossibilité que
l'harmonie du monde soit le fruit du hasard, donc qu'elle résulte d'une finalité. Elle
repose sur une faute de raisonnement évidente, et - hélas – fréquente : nous l'avons
déjà vu.
Il y a une variante de cette erreur : « lorsque le hasard que je constate me dérange
en contredisant mes idées préconçues, j'imagine une loi qui rend compte de mes
constatations et je l'attribue à la volonté de Dieu. » Spinoza disait dans [97] :
"…les hommes jugent des choses suivant la disposition de leur cerveau et
exercent leur imagination plus que leur entendement."
"La volonté de Dieu est l'asile de l'ignorance, asile qui sert à expliquer ce qu'on
ne comprend pas par quelque chose qu'on comprend encore moins".
Il y a d'autres "preuves de l'existence de Dieu" que les spiritualistes ont utilisées au
cours des siècles. Elles sont décrites, analysées et, hélas, réfutées dans la 1ère partie
de ce livre.
2.3.2
Le reproche de contredire le deuxième principe de la thermodynamique
Les spiritualistes ont un autre reproche à faire au matérialisme, reproche basé sur la
violation de la loi thermodynamique de l'entropie toujours croissante. Ils prétendent
que le phénomène de la vie ne peut s'expliquer par les seules lois physiques
déterministes du matérialisme, car celles-ci impliquent l'exigence thermodynamique
de croissance du désordre dans toute évolution. Pour eux, puisqu'un être vivant est
hautement organisé, et que son corps s'organise à partir de nourriture qui est moins
organisée, la vie apporte quelque chose qui contredit la thermodynamique, qui la
soumet à un principe qui dépasse la physique et son matérialisme sous-jacent.
Nous montrerons plus bas que ce raisonnement est faux, car le principe
thermodynamique de l'entropie toujours croissante ne s'applique qu'aux systèmes en
équilibre, qui n'échangent pas d'énergie avec leur environnement. Or le métabolisme
d'un être vivant échange l'énergie contenue dans sa nourriture avec de la production
de chaleur, de mouvement et de cellules nouvelles. Voyons ce que dit la
thermodynamique.
2.3.2.1
Notion d'entropie
Définition thermodynamique
L'entropie d'un système matériel est sa quantité d'énergie thermique par degré de
température qu'on ne peut transformer en travail utile. L'entropie mesure le
mouvement désordonné (l'agitation thermique) de ses molécules, donc
l'inorganisation du système qu'elles constituent, ce qu'on ignore sur lui.
Soit un système matériel que l'on met en contact avec plusieurs sources de chaleur,
de températures absolues T 1, T2, etc. Il échange alors avec ces sources des
quantités de chaleur respectives Q 1, Q2, etc. Chacune de ces quantités peut être
55
positive ou négative, selon le sens du transfert de chaleur. Nous supposerons que
l'échange de chaleur du système se fait de manière réversible.
On définit alors la variation d'entropie ΔS du système par la somme des rapports :
ΔS = Q1/T 1 + Q2/T2 + … en joules par degré Kelvin.
Dans les transformations réelles, c'est-à-dire non réversibles, l'égalité précédente
devient une inégalité :
ΔS  Q1/T1 + Q2/T2 + …
Cette inégalité, due au physicien Clausius, exprime le deuxième principe de la
thermodynamique : l'entropie d'un système isolé qui subit des transformations est
toujours croissante. En particulier, on peut affirmer que l'énergie convertissable en
travail de l'Univers s'épuise peu à peu. (Définitions de la thermodynamique : [25])
2.3.2.2
Entropie de Boltzmann, entropie statistique et entropie d'information
Au XIXe siècle, les physiciens Maxwell et Boltzmann inventèrent la Mécanique
statistique, science qui déduit les propriétés macroscopiques d'un système
(propriétés mesurables à l'échelle humaine comme la température, la pression et la
viscosité) de celles de ses molécules ou atomes. La loi qu'ils établirent exprime de
manière simple l'entropie S d'un système macroscopique en équilibre
thermodynamique à partir du nombre d'agencements W de l'ensemble de ses
molécules qui conduisent à une énergie macroscopique donnée. Expliquons cela.
Mouvement brownien - Relation entre température absolue et énergie cinétique
Chaque molécule du système a une certaine énergie. Si le système est un liquide, de
l'eau à 27 degrés C par exemple, cette énergie est l'énergie cinétique de chaque
molécule d'eau, énergie cinétique provenant de son mouvement, lui-même dû à la
température.
A la température absolue T (en degrés Kelvin) chaque molécule a une énergie
cinétique moyenne de 3/2 kT, où k est la constante de Boltzmann,
k = 1.38066.10-23 joule par degré Kelvin. Autrement dit, une température absolue
T > 0 oblige toute molécule à bouger constamment, avec une énergie cinétique
moyenne de 3/2kT ; si la masse de la molécule est m, sa vitesse moyenne v
sera telle que ½mv² = 3/2kT, d'où v² = 3kT/m.
Pour fixer les idées, à la température T = 300°K (environ 27°C), la vitesse
moyenne d'une molécule monoatomique d'hélium He est d'environ 1300 m/s. A
une température donnée T, une molécule légère comme l'hydrogène H2 a une
vitesse moyenne plus élevée qu'une molécule plus lourde d'azote N 2 : les deux
molécules ont même énergie cinétique moyenne, mais les carrés de leurs
vitesses moyennes sont dans le rapport des masses molaires 28/2 = 14.
Bien entendu, chaque molécule a sa propre énergie cinétique, indépendante de celle
d'une autre molécule tant que ces deux molécules ne se sont pas heurtées dans leur
agitation incessante, appelée mouvement brownien. Ce mouvement désordonné
affecte toutes les molécules d'un liquide ou un gaz ; dans les solides, l'effet de la
56
température se manifeste par une vibration de translation et/ou de rotation chaque
atome autour d'une position moyenne.
Statistiques moléculaires
Le nombre de molécules d'un système macroscopique est colossal ; par exemple,
dans 18 g d'eau (quantité qu'on appelle une mole) il y a 6.02 .1023 molécules
(nombre d'Avogadro). Le nombre (immense !) d'ensembles de vitesses
(d'agencements) que ces molécules peuvent avoir en s'agitant pour se répartir une
énergie macroscopique totale donnée est appelé W, nombre que nous n'aurons
jamais à écrire, heureusement !
Par exemple, si un système a 3 molécules dont l'énergie peut varier de 0 à 9, et
que son énergie totale est 5, les agencements possibles des molécules sont :
(5,0,0) ; (4,1,0) ; (4,0,1) ; (3,2,0) ; (3,0,2) ; (3,1,1) ; (2,3,0) ; (2,0,3) ; (2,2,1), etc.
On appelle état microscopique d'un système macroscopique un agencement donné
de ses molécules, configuration où chacune a sa propre vitesse donc sa propre
énergie cinétique. Pour un état donné du système macroscopique, d'énergie totale
donnée, il y a W états microscopiques qui ont cette énergie totale.
Il est normal d'admettre que ces états microscopiques du système
macroscopique ont la même probabilité de se réaliser, et qu'ils sont indépendants.
Cette probabilité P est alors nécessairement P = 1/W, puisque la probabilité totale
des W états est une certitude et vaut 1.
Nous pouvons alors interpréter W comme une mesure du désordre du système : plus
le système est structuré, plus ses molécules sont liées entre elles, moins elles sont
indépendantes et moins il y a d'agencements W conduisant à une énergie donnée.
Dans un corps à l'état solide dont on ne voit pas les molécules individuelles, on ne
peut décrire qu'une énergie totale : W = 1 et P = 1.
Exemple : soit un système constitué de 12 g de carbone pur solide (1 mole) et
32 g d'oxygène pur gazeux (2 moles). Soumettons-le à la transformation qui fait
brûler le carbone dans l'oxygène : C + O2  CO2. Le résultat – 44 g de gaz
carbonique (1 mole = 6.02 .1023 molécules) - est dans un état plus désordonné
que l'état initial : son W a augmenté.
L'entropie de Boltzmann S d'un
thermodynamique est définie par :
système
macroscopique
en
équilibre
S = k lnW (en joules par degré Kelvin, comme k)
où k est la constante de Boltzmann et lnW est le logarithme népérien de W.
On voit que W et S varient dans le même sens : l'entropie S est donc aussi une
mesure du désordre du système, du nombre d'agencements microscopiques
possibles cachés quand on ne voit que l'état macroscopique du système.
La température et l'entropie d'un système ne sont stables qu'au voisinage de
l'équilibre. Conséquence : tant que l'Univers est en expansion, donc loin de
l'équilibre, son entropie (très faible à l'instant du Big Bang) peut croître.
57
Entropie statistique
Soit un système dont chacun des états possibles xi a une probabilité 𝑝𝑥𝑖 comprise
entre 0 et 1, la somme des 𝑝𝑥𝑖 étant exactement égale à 1 (certitude). On définit alors
l'entropie statistique H du système comme :
𝑯 = −𝒌 ∑ 𝒑𝒙𝒊 𝐥𝐨𝐠 𝒑𝒙𝒊
𝒙𝒊
où :

Le logarithme est soit népérien, soit en base 10, soit en base 2 ; son choix se
répercute alors sur la valeur de k puisqu'on passe d'une base à une autre par
simple multiplication : log2 x = (Loge 10 / Loge 2) * log10 x = 3.322 log10 x.

La constante k est arbitraire ; c'est par exemple la constante de Boltzmann
k = 1.38066.10-23 joule par degré Kelvin pour des logarithmes népériens.
En Mécanique statistique, l'entropie mesure l'absence d'informations d'un état
macroscopique par rapport à l'état microscopique. Elle se mesure dans l'unité choisie
pour la constante k. Lorsqu'on considère le nombre d'états d'un système qui
définissent son état global, l'entropie est un nombre sans dimension.
Exemple : dans un lanceur de satellite il y a 10 000 pièces indépendantes dont le
dysfonctionnement pourrait causer l'échec du lancement. Pour répondre à la
question : « Quel est la probabilité de succès du lanceur selon le nombre de
pièces en bon état ? » il faut 10 000 informations, chacune avec 2 valeurs
possibles : "bon" ou "mauvais", représentées par un bit : 1 pour "bon" et 0 pour
"mauvais". Il faut donc 10 000 bits pour représenter les 210000 combinaisons
d'états possibles du lanceur (environ 1.995 .103010 - nombre de 31 chiffres en
base 10).
Si on suppose que les 10 000 pièces ont la même probabilité p de bon
fonctionnement, pour que le lancement ait au moins 99 % de chances de réussir
il faut que p10000 > 0.99, donc p > 0.999999 : chacune des pièces doit avoir au
plus une chance sur un million d'être défectueuse.
Lorsque les états sont équiprobables, leur nombre étant W, la probabilité de chacun
est 1/W. La formule ci-dessus donne alors une entropie statistique égale à l'entropie
de Boltzmann : H = k logW. Lorsque les états sont équiprobables l'entropie H est
maximale : c'est lorsqu'aucun événement ne diffère des autres qu'on a le moins
d'information sur l'état global.
Entropie d'information
Cette notion apparaît lorsqu'on se pose la question de l'entropie d'un trou noir : avant
absorption dans le trou, la matière a une entropie statistique. Que devient
l'information représentée par l'entropie transférée ?
Réponse : après absorption son entropie a été absorbée dans le trou et stockée
sur sa sphère horizon, mais un observateur éloigné ne peut plus en voir d'effet et
peut la croire perdue. L'entropie du trou noir a augmenté au moins autant que
l'apport extérieur, à cause de l'inégalité de Clausius qui régit les transformations
irréversibles. Les formules de [133] décrivent la quantité d'information (l'entropie) sur
la sphère horizon du trou noir.
58
2.3.2.2.1
Comprendre le deuxième principe de la thermodynamique
Le deuxième principe de la thermodynamique [25] affirme que l'entropie d'un
système matériel isolé qui se transforme ne peut qu'augmenter, traduisant ainsi un
désordre toujours croissant et une énergie susceptible d'être transformée en travail
utile toujours décroissante.
On oublie souvent que cette affirmation n'est valable que pour un système au
voisinage de l'équilibre, dont les variables d'état (énergie, forme géométrique, masse,
etc.) sont pratiquement constantes dans le temps.

A l'équilibre, le système qui se transforme n'échange avec l'extérieur ni chaleur
(qui est une forme d'énergie), ni masse ; son entropie est constante.

Au voisinage de l'équilibre, les propriétés d'une petite région donnée du système
varient de manière continue : elles ne changent jamais beaucoup sur de petites
distances, ce qui suppose que les forces agissant sur la région sont faibles.
Au voisinage de l'équilibre thermodynamique, un système évolue donc toujours dans
le sens qui fait croître son entropie, sa désorganisation ; le temps a donc un sens
unique d'écoulement, une « flèche » du présent vers le futur qui est peut-être due à
ce que l'expansion à sens unique de l'Univers se manifeste en tous ses points.
Par contre, un système globalement loin de l'équilibre peut comporter des zones
proches de l'équilibre auxquelles le deuxième principe de la thermodynamique
s'applique. L'évolution d'un système en déséquilibre global peut faire passer l'état
d'une de ses régions d'une situation de déséquilibre (par exemple chaotique ou
turbulent) à une situation d'équilibre, ou inversement ; les états stables
correspondent à des minima locaux d'énergie, certains en équilibre et d'autres en
déséquilibre [289]. Contrairement à ce que croient beaucoup de gens, la
thermodynamique n'exclut pas l'évolution du désordre vers l'ordre en certaines
régions d'un système loin de l'équilibre.
2.3.2.3
Etre vivant et thermodynamique
Comme tout système matériel, un être vivant dans son milieu environnant est soumis
à la loi thermodynamique de l'entropie croissante : lorsqu'il mange et transforme des
aliments en sa substance vivante, cette transformation augmente l'entropie du
système global être vivant + nourriture + environnement.
Lorsque les états microscopiques sont équiprobables pour chaque état global d'un
système macroscopique qui évolue, le deuxième principe de la thermodynamique
affirme que l'état final le plus probable de l'évolution du système macroscopique
global est l'état d'équilibre correspondant au maximum de l'entropie, c'est-à-dire au
maximum de désordre.
2.3.2.4
L'objection des spiritualistes et la réponse de Prigogine
La vie est caractérisée par deux sortes d'ordre, par opposition au désordre du
hasard :

L'ordre architectural, respecté lorsque le code génétique détermine un
arrangement précis des molécules, tel que celui qui permet la spécialisation des
enzymes ;
59

L'ordre fonctionnel, respecté lorsque le métabolisme des cellules coordonne des
milliers de réactions chimiques.
Pour les spiritualistes, cette exigence d'ordre semble incompatible avec le deuxième
principe de la thermodynamique, qui affirme que l'état final d'évolution le plus
probable d'un système isolé est l'état d'équilibre désordonné correspondant au
maximum d'entropie. Ils pensent que « si le matérialisme avait raison, la matière
inerte et désorganisée des aliments se transformerait en être vivant complexe,
hautement organisé, ce qui contredit le deuxième principe ».
Enoncée de cette manière, l'objection ne tient pas : la nourriture inerte ne se
transforme pas toute seule en être vivant complexe, elle le fait dans le cadre d'un
système être vivant + nourriture + environnement ; la complexité qui se crée dans
l'être vivant (par exemple lorsqu'un bébé qui grandit devient enfant) est
accompagnée de désorganisation dans son environnement, l'entropie de l'ensemble
augmentant bien.
L'évolution des espèces selon la théorie de Prigogine – Attracteurs étranges
Mais pour aller au fond des choses, le matérialisme doit expliquer comment, sans
intervention divine ou extérieure, de la matière inerte peu organisée peut se
transformer en matière vivante très organisée ; en particulier, comment cela s'est-il
produit lors de l'apparition de la vie dans l'Univers ?
Une explication a été apportée par le chimiste belge Prigogine, prix Nobel de chimie
1977 pour ses contributions à la thermodynamique des processus irréversibles
basées sur la théorie du chaos. Selon lui, les structures biologiques sont des états
particuliers de non-équilibre. Elles nécessitent une dissipation constante d'énergie et
de matière, d'où leur nom de « structures dissipatives » (définition).
"C'est, écrit Prigogine, par une succession d'instabilités que la vie est apparue.
C'est la nécessité, c'est-à-dire la constitution physicochimique du système et les
contraintes que le milieu lui impose, qui détermine le seuil d'instabilité du
système. Et c'est le hasard qui décide quelle fluctuation sera amplifiée après que
le système a atteint ce seuil et vers quelle structure, quel type de fonctionnement
il se dirige parmi tous ceux que rendent possibles les contraintes imposées par
le milieu." [M7]
Au voisinage de l'équilibre du système dissipatif, qui se transforme en ayant des
échanges de travail, de chaleur et de matière avec l'extérieur, les fluctuations
disparaissent dès leur apparition : c'est la stabilité qui correspond à l'équilibre. Dans
la région non linéaire, en revanche, loin de l'équilibre, certaines fluctuations peuvent
s'amplifier à proximité d'un premier état critique, perturber l'état macroscopique et le
déstabiliser. Le système bifurque alors vers un nouvel état stable, qui peut être plus
structuré que le précédent, d'où croissance de la complexité ; l'état précédent,
devenu instable, peut alors être éliminé. Le nouvel état stable est appelé « attracteur
étrange » en théorie du chaos.
Prigogine montre aussi que des perturbations extérieures au système peuvent avoir
le même effet, toujours sans contredire le deuxième principe de la thermodynamique.
Il peut donc y avoir auto-organisation de la matière loin de l'équilibre sans
60
intervention miraculeuse. Le rôle du hasard dans l'apparition de la vie est très
restreint : il se réduit à un choix entre diverses possibilités d'évolution. Pour plus de
détails, voir :

"Décroissance de l'entropie. Structures dissipatives. Auto-organisation" ;

"Vie, organisation, complexité et entropie".
Conclusion
En opposant le deuxième principe de la thermodynamique à l'explication matérialiste
d'apparition et d'évolution de la vie, les spiritualistes contredisent des faits
scientifiques établis.
2.3.2.5
Les scientifiques spiritualistes dont l'intuition étouffe la raison
Il reste des scientifiques qui s'accrochent au spiritualisme. Ils font semblant
d'admettre l'effet du hasard, puis le nient aussitôt au profit d'une « loi d'évolution »
qu'ils croient déceler par induction et intuition, et refusent d'expliquer comme
Prigogine par des fluctuations aléatoires amplifiées (voir l'explication [M6]). Ils font
ainsi une erreur du type « pour une succession d'événements que je n'explique pas,
j'imagine une loi d'évolution et je l'attribue à Dieu ». Imaginer une loi pour rendre
compte de faits ou les relier est une démarche scientifique, attribuer la loi à Dieu
sans preuve ne l'est pas.
2.3.3
Créationnisme contre évolutionnisme : le débat
Les croyants (qui tiennent absolument à attribuer à Dieu la création de l'Homme) le
adoptent tantôt la doctrine appelée Créationnisme, tantôt celle appelée Intelligent
Design (conception de l'Univers par une Intelligence supérieure).

Le créationnisme s'appuie sur la Bible, qui affirme que Dieu a créé l'homme tel
qu'il est [M5]. Lorsqu'il y a conflit entre les affirmations de la science et celles de
la Bible, ils croient la Bible et nient la science ; ils rejettent notamment
l'évolutionnisme darwinien.

L'Intelligent design considère comme impossible (exactement : très hautement
improbable) que l'Univers, l'Homme et leur évolution, si complexes et si beaux,
puissent résulter du hasard (voir : Le « principe anthropique »). Ses partisans
attribuent donc cette complexité et cette beauté à Dieu, seul être existant avant
eux et capable de les créer. Ils ne s'appuient pas sur la Bible et admettent
qu'après la création divine initiale ils ont pu évoluer. C'est là la doctrine actuelle
de l'Eglise catholique [D7].
2.3.3.1
Darwin et le rôle du hasard dans l'évolution
En 1859 parut le livre de Darwin "De l'origine des espèces" [42]. L'auteur y montre
que l'évolution des espèces se fait par mutations aléatoires, résultant des
imperfections du mécanisme de transmission des caractères héréditaires. Après
apparition d'une nouvelle espèce, la sélection naturelle ne conserve que les êtres les
mieux adaptés ou ceux dont la progéniture est la plus nombreuse.
Sa théorie, appelée évolutionnisme, est étayée par de nombreux exemples et fait
encore autorité de nos jours, permettant de se passer du finalisme pour expliquer
l'évolution. Elle eut dès sa publication un immense retentissement, notamment en
fournissant des arguments puissants au matérialisme contre le spiritualisme
61
religieux. (Ce dernier soutient le créationnisme, qui affirme que la vie a été créée par
Dieu, et que celui-ci a créé chaque espèce telle qu'elle est de nos jours ; le
créationnisme nie donc l'évolution, sous prétexte que le travail de création de Dieu
étant nécessairement parfait, Il n'a pas eu besoin d'améliorer les espèces qu'Il avait
créées. [M5])
Pour un croyant qui considère la Bible comme un livre saint, mettre en cause le
créationnisme revient à contredire la parole de Dieu, qui explique dans le premier
livre, la Genèse, comment Dieu a créé le monde avec ses créatures [M5]. Contredire
la Bible était inconcevable du temps de Darwin pour tous les croyants ; et c'est
toujours le cas aujourd'hui dans certains pays où il n'y a pas séparation de la religion
et de l'Etat, et dans les quelques états des Etats-Unis qui imposent l'enseignement
du créationnisme tantôt en tant que seule théorie acceptable, tantôt en tant que
théorie aussi acceptable que l'évolutionnisme (qui pourtant le contredit, arguments
scientifiques à l'appui !). [244]
Une autre affirmation de la théorie évolutionniste de Darwin a paru inacceptable et
scandaleuse aux croyants de son époque : l'ensemble des êtres vivants ont un
ancêtre commun, dont ils descendent par mutations successives [42].Cette
affirmation est aujourd'hui étayée par des preuves génétiques indiscutables, alors
que Darwin l'a déduite de l'existence de nombreux caractères communs à toutes les
formes de vie.
Mais pour les croyants la théorie de l'évolution est inacceptable, car le
perfectionnement des espèces par passage des plantes aux animaux et de ceux-ci à
l'homme entraîne que la création initiale divine était imparfaite, que Dieu avait dû s'y
reprendre à plusieurs reprises pour arriver à l'homme, alors que la Bible affirme que
Dieu a créé l'homme à son image et les animaux tels qu'ils sont [M5]. L'évolution
darwinienne a été accusée d'affirmer que « l'homme descend du singe », affirmation
absurde et infamante ; la réalité, nous le savons aujourd'hui, est que l'homme et le
singe ont un ancêtre commun.
L'évolutionnisme a été, lui aussi, victime du phénomène de rejet que je dénonçais un
peu plus haut, au paragraphe "Les scientifiques spiritualistes dont l'intuition étouffe la
raison". En cherchant bien, les créationnistes ont trouvé chez Darwin une petite
erreur : les mutations aléatoires, qui selon lui ne produisent que des évolutions
petites et progressives, peuvent, en fait, en produire de fort grandes. C'est ce que
constate avec jubilation la paléontologue auteur du texte [M6], en écrivant :
"En matière d’évolution, on voit très bien quand le chaos déterministe, qui est
très fréquent, intervient. C’est par exemple quand apparaît le Néanderthalien.
Cela se passe il y a quelque cent vingt mille ans. Brusquement, survient en
Europe un être totalement imprédictible. La base de son crâne, au lieu de
prolonger et d’accentuer le mouvement de flexion cranio-faciale des hominiens
et hommes archaïques qui l’ont précédé, eh bien cette base, au contraire,
s’allonge. La contraction ralentit. Donc, logiquement, le cerveau devrait ralentir
son développement... Mais non, son cerveau grossit. En écho, la face se projette
vers l’avant et le front adulte s’affaisse. Parallèlement, le drainage sanguin du
cerveau régresse. Il a une énorme langue et pousse sans doute des cris
puissants qui lui permettent de communiquer à grandes distances, mais le
Néanderthalien ne peut vraisemblablement pas articuler des mots clairs. Bref,
toutes les corrélations se sont rompues entre les tissus. Le chaos s’est introduit
62
dans le jeu. Le Néanderthalien disparaîtra sans descendance et sans sortir du
plan d’organisation des hommes archaïques."
Cette évolution est illustrée par un graphique, résultat de travaux récents publiés
par The New York Times du 16/11/2006.
La paléontologie montre, contrairement à ce que pensait Darwin, que l'évolution des
espèces n'est pas continue, elle a lieu par sauts. Nous avons vu que de nos jours
ces sauts sont expliqués par la théorie des structures dissipatives de Prigogine, qui
prévoit une auto-organisation autour de points « attracteurs étranges », organisation
issue du hasard des mutations. Cette auto-organisation a été interprétée comme la
preuve d'une finalité par les spiritualistes. Cette interprétation consiste à relier des
stades d'évolution successifs en donnant un nom à leur succession, puis en
l'attribuant à Dieu. Nous avons vu qu'interpréter l'évolution en essayant de dégager
une loi est scientifique, mais que l'attribuer sans preuve à Dieu - ce qui dispense de
l'expliquer - ne l'est pas.
Pour plus de détails :

sur le déterminisme des phénomènes de la vie dû au code génétique, voir plus
bas ;

sur les accidents de la réplication du génome et l'évolution des espèces vers la
complexité, cliquer ici.
2.3.3.2
Arguments des scientifiques spiritualistes
L'exemple [M6] montre qu'il existe des scientifiques qui sont spiritualistes. Ils sont
minoritaires, mais ils existent et défendent leurs croyances. Voici deux exemples
d'attitude spiritualiste face à la science.
Argument 1 : la science moderne doit être rejetée pour défaut de réalisme
Le spiritualisme s'oppose à la connaissance scientifique, qui conduit au matérialisme
parce qu'elle se passe d'explication révélée ou finaliste des phénomènes, négligeant
ainsi l'existence de Dieu. Certains spiritualistes cherchent donc à discréditer la
science en l'accusant de s'occuper de théories abstraites sans rapport avec la réalité.
Certains reprochent ainsi à la physique quantique d'avoir remplacé la recherche
d'une explication des phénomènes matériels compréhensible car basée sur nos sens
par de simples modèles mathématiques permettant une prévision de l'évolution d'un
système comme l'équation fondamentale de la Mécanique quantique, dite "équation
de Schrödinger".
Ce reproche est puéril : pourquoi les sens de l'homme lui permettraient-ils de saisir
toute la réalité physique ? Nos yeux ne nous permettent pas de voir les rayons X, par
exemple, et nos oreilles d'entendre les ultrasons ; ces phénomènes existent pourtant,
on en a mille preuves. Notre cerveau est incapable de se représenter un objet à plus
de 3 dimensions, pourtant indispensable dans l'espace-temps relativiste à 4
dimensions, les espaces de Calabi-Yau à 10 dimensions de la théorie des cordes et
même les 10 dimensions + le temps des M-branes [329]. Pourquoi accepter les
équations différentielles de mouvement de Newton et pas celle de Schrödinger ?
63
Kant et Schopenhauer ont expliqué (là et [173]) que la conceptualisation mise en
œuvre par notre esprit pour comprendre la réalité aboutit à une représentation de
cette réalité par un modèle à concepts à priori ; pourquoi alors refuser à ce
processus l'utilisation d'outils mathématiques ? Notre esprit a besoin d'outils de
conception sans rapport avec la réalité perceptible, à commencer par l'espace et le
temps, concepts que je ne peux ni voir, ni entendre, ni toucher, ni goûter, ni sentir
avec mon nez. Il y a ensuite la notion de libre arbitre de l'homme, concept
indispensable pour raisonner sur sa responsabilité. Si nous admettons d'utiliser de
tels outils pour penser, pourquoi pas les outils mathématiques modernes ?
Non seulement pour comprendre le monde nous avons besoin de tels outils
intellectuels, mais nous avons aussi besoin de remettre en cause certaines de nos
évidences issues de la réalité sensible. Nous en verrons de nombreux exemples
dans la troisième partie de ce texte, où ils justifient l'extension de la définition du
déterminisme.
Le reproche spiritualiste fait à la science moderne de s'occuper d'abstractions sans
intérêt pratique ne tient pas. La Mécanique quantique permet de fabriquer des objets
utiles : processeurs de PC et lecteurs de DVD basés sur l'effet laser, transistors
utilisés dans tout appareil électronique, etc. Ses prévisions - pourtant 100 %
mathématiques - sont d'une précision extraordinaire. La science fait progresser nos
connaissances pratiques, les concepts dont nous disposons pour comprendre le
monde et agir sur lui, et même nos méthodes de pensée ; le spiritualisme n'apporte
rien dans ces domaines, car il n'est pas basé sur la raison scientifique mais sur des
intuitions admises sans démonstration ou les révélations d'une religion.
Argument 2 : la science moderne conduit au spiritualisme
Certains physiciens spiritualistes ont trouvé des analogies entre des enseignements
de la physique moderne et des intuitions qu'ils avaient, ou qu'ils trouvaient chez des
mystiques (des gens qui ont une communication personnelle avec l'Esprit ou Dieu,
communication inaccessible au commun des mortels). Deux exemples :

Le prix Nobel de physique Wigner fait de la conscience de l'homme la seule
réalité ultime, et lui attribue la décohérence qui détruit la superposition d'états
quantiques ! Il attribue la décohérence à l'esprit des expérimentateurs qui
l'observent. Son erreur est prouvée par les expériences de décohérence
réalisées depuis, par exemple au Laboratoire Kastler Brossel (LKB) de l'Ecole
Normale Supérieure [M4], expériences qui provoquent la décohérence sans
recourir à l'esprit de l'expérimentateur et à sa conscience. Nous reviendrons sur
la décohérence plus bas.

Le physicien Fritjof Capra affirme que les lois de la physique moderne confirment
certaines mystiques d'Asie : hindouisme, bouddhisme, taoïsme. Son livre est un
ensemble d'élucubrations pseudo-scientifiques [175].
Ces analogies sont toutes des intuitions et des inductions de leurs auteurs, c'est-àdire des convictions indémontrables qu'ils s'efforcent de nous faire partager, en les
déclarant scientifiques et en basant leur crédibilité sur l'autorité de leurs travaux
scientifiques publiés - qui pourtant ne prouvent nullement ces intuitions.
64
Argument 3 : évolution peut-être, mais par la volonté de Dieu !
Aux Etats-Unis, le débat entre créationnistes - qui nient l'évolutionnisme darwinien au
nom de leur foi en Dieu - et évolutionnistes qui croient ce qu'enseigne la science, fait
toujours rage. Voici le dernier argument trouvé par les créationnistes face à
l'avalanche de preuves scientifiques toujours plus convaincantes en faveur de
l'évolution darwinienne : « il y a bien eu évolution, mais parce que c'est la manière
choisie par Dieu pour faire naître Ses créatures et les adapter ; et les mutations que
l'homme ignorant qualifie d'aléatoires ne le sont pas du tout, elles sont prévues par
Dieu et sont l'effet de Ses fins. »
C'est là un argument infalsifiable [203], donc irréfutable : toute situation que l'on
constate peut toujours être attribuée à Dieu, parce qu'il est impossible de
prouver qu'Il n'est pas intervenu. Même si la situation considérée résulte d'une
loi physique connue, on peut toujours attribuer l'existence de celle-ci à Dieu.
Certains évolutionnistes ont répondu à cet argument par un sarcasme : « si Dieu a
dû s'y reprendre à plusieurs fois, sur des millions d'années, pour créer des êtres bien
adaptés, où sont sa perfection, son infaillibilité et sa toute-puissance ? »
65
2.4
Comparaison du matérialisme et du spiritualisme
2.4.1
Il faut adopter un concept de réalité utile
Un mathématicien sait que l'infini n'est pas un nombre et qu'on ne peut l'atteindre :
chaque fois qu'on cite un très grand nombre, on peut en citer un plus grand encore,
et cela peut continuer indéfiniment.
Mais un physicien sait aussi qu'une limite peut - sans être atteinte - être approchée si
près que la différence n'a plus d'importance. Considérons le nombre N = 1.99999…
qui a autant de décimales 9 que l'on voudra. Quel que soit le nombre de décimales
de N, ce nombre n'est pas égal à 2. Mais il s'en approche autant que l'on veut,
arrivant plus près de 2 que n'importe quelle différence constante donnée à l'avance.
En pratique, la différence entre N et 2 n'a pas d'importance physique.
2.4.1.1
Convergence de la connaissance scientifique : exemple de l'astronomie
Il en va de même de la connaissance scientifique : elle n'atteindra jamais la réalité
ultime, c'est-à-dire l'exhaustivité, mais dans beaucoup de domaines elle s'en
approchera si près, par approximations successives résultant de critiques, que la
différence sera sans conséquence. On peut illustrer cela par l'exemple des progrès
de l'astronomie en matière de connaissance du mouvement des planètes et
astéroïdes.

Au IIe siècle après J.-C., l'astronome Ptolémée a décrit les trajectoires des
planètes (censées tourner comme le Soleil et la Lune autour de la Terre) en
combinant des mouvements circulaires uniformes en une trajectoire
épicycloïdale. Sa théorie était suffisamment précise pour prédire la position de
ces astres des décennies à l'avance à quelques degrés près.

Constatant au XVIe siècle que les prévisions de position de Ptolémée étaient
devenues insuffisamment précises au bout de 14 siècles, l'astronome danois
Tycho Brahe a multiplié les mesures de position avec une précision jamais
encore atteinte, puis en a déduit un système où les planètes tournent autour du
Soleil, qui lui-même tourne autour de la Terre, immobile.
Les mesures ultra-précises de Tycho Brahe ont ouvert la voie :
 aux calculs de Kepler, qui a énoncé ses trois lois du mouvement planétaire ;
 aux théories de la gravitation de Newton, qui a démontré l'exactitude des lois
de Kepler à partir de ses propres lois fondamentales de la dynamique.

Des mesures extrêmement précises ont montré au XIXe siècle que la rotation de
l'axe de l'ellipse décrite par la planète Mercure constituait un mouvement de
précession incompatible avec les lois de Kepler, donc la dynamique de Newton.
L'erreur de 43 secondes d'arc par siècle (!) a été expliquée en 1915 par la
théorie de la Relativité Générale d'Einstein [328].

La précision atteinte de nos jours dans la prévision du mouvement d'un
astéroïde n'est plus limitée que par un phénomène échappant à tout calcul : les
perturbations induites par les mouvements des planètes - surtout l'énorme
Jupiter - rendent une prévision impossible au bout de quelques millions
d'années, voire moins, la prévision étant sensible à la variation des paramètres
de la loi (conservative) de mouvement autour du Soleil.
66
Le mouvement de la Terre elle-même est imprévisible au-delà d'une centaine de
millions d'années. Et l'inclinaison de son axe par rapport à l'écliptique aurait subi
des variations chaotiques trop considérables pour que des formes de vie
évoluées s'y développent si le satellite exceptionnellement lourd qu'est la Lune
ne l'avait pas stabilisé. (Détails)
Cet exemple montre que, sans atteindre une réalité ultime (une prédictibilité parfaite),
nos connaissances peuvent parfois arriver, domaine par domaine, à une précision
suffisante pour que la différence avec une réalité ultime soit sans importance.
On peut donc remplacer la quête de la réalité ultime par celle d'une modélisation
suffisante de la réalité, que nous appellerons « réalité utile ». On trouvera une
discussion de la notion de convergence dans l'importante remarque [219].
La notion de réalité utile est cohérente avec le besoin d'une base axiomatique de
raisonnement, sur laquelle nous revenons dans [67].
2.4.2

Le concept même de réalité ultime (initiale) est dangereux
Le philosophe allemand Kant a montré que l'on ne pourra jamais démontrer
logiquement ni l'existence ni l'inexistence de Dieu, de l'âme et de quelques
autres concepts du même genre (voir 1ère partie). Plus généralement, on ne
peut pas déduire une existence concrète, c'est-à-dire vérifiable par l'expérience,
d'une essence qui est une abstraction humaine, nous l'avons vu précédemment.
Donc attribuer la création du monde (sa cause initiale) à un Dieu supposé réel
est illogique : ou Il existait dans l'Univers quand Il l'a créé, ce qui est impossible ;
ou Dieu était extérieur à l'Univers et l'a précédé – comme l'implique le concept
de cause initiale – et son existence n'est pas démontrable avec des arguments
logiques basés sur des postulats de notre Univers (d'après le principe
d'homogénéité).

Le philosophe Nietzsche a dénoncé l'utopisme de la notion de réalité ultime :
chaque fois qu'une connaissance progresse, elle amène de nouvelles questions
et le processus ne s'arrêtera jamais. Nous ne trouverons donc jamais la cause
ultime [16].

Le mathématicien Gödel est allé plus loin. Ses théorèmes, dits d'incomplétude,
affirment que dans tout système axiomatique comprenant l'arithmétique il existe
des propositions indécidables, c'est-à-dire dont on ne peut démontrer ni la
véracité ni la fausseté ; on ne peut même pas prouver que les axiomes de base
de ce système sont cohérents (c'est-à-dire non contradictoires) [6].
Conclusions :
 Dans le cadre d'une axiomatique donnée il existe des propositions vraies et
des propositions fausses dont la véracité ou la fausseté sont indémontrables
par une suite de déductions logiques.
 La réalité ne peut être décrite qu'à partir de vérités initiales indémontrables,
acceptées comme axiomes et constituant de ce fait une réalité ultime
artificielle. Voilà qui justifie l'affirmation de Nietzsche.
67
Le concept de réalité ultime est une invention très ancienne de l'homme, rongé par
l'inquiétude de ne pas savoir [16]. Le succès des religions révélées est dû, pour une
grande part, au fait qu'elles apportent des réponses aux questions essentielles
comme : « Comment le monde a-t-il été créé ? » ; « Qu'est-ce qui est bien et qu'estce qui est mal ? » ; « Que deviendra mon âme après ma mort ? » ; etc.
Nous reviendrons sur la réalité ultime plus loin.
2.4.3
Objectivité ou subjectivité
Le matérialisme cherche de manière scientifique des réalités objectives, définies par
le fait que tous les hommes peuvent se mettre d'accord sur elles à partir de
constatations partagées et de raisonnements logiques.
Le spiritualisme, au contraire, admet des vérités de l'esprit issues soit d'une
révélation religieuse à laquelle il faut croire sans preuve, soit de l'intuition d'un
individu qui cherche à en convaincre les autres ; cette intuition ne dispose pas de
plus de preuves ou de preuves différentes que la révélation religieuse.
La première différence entre ces deux doctrines est apparue dès le départ, c'est la
rigueur :

Le matérialisme repose sur des concepts et des méthodes de pensée
rigoureuses, scientifiques, notamment le déterminisme ;

Le spiritualisme repose sur des concepts vagues et des convictions acquises par
intuition ou révélation.
La deuxième différence entre ces deux doctrines est la manière de les faire partager
par beaucoup d'hommes :

Le matérialisme utilise la science et la raison, que l'objectivité rend
indépendantes d'un homme donné. Toute connaissance acquise de cette
manière est réputée conforme aux faits et vérifiable, et tenue pour vraie jusqu'à
ce qu'une connaissance plus élaborée la remplace ou la précise.

Le spiritualisme utilise une révélation ou une intuition, déclarées vraies à priori et
au-dessus de toute preuve scientifique. Ses vérités sont réputées correctes pour
ceux qui veulent bien les croire, et jusqu'à ce qu'une nouvelle croyance
religieuse ou une autre intuition les remplace.
La troisième différence est d'ordre psychologique :

Le matérialisme et la science laissent beaucoup de phénomènes et
d'événements inexpliqués, ce qui inquiète tout homme. On constate, du reste,
qu'un homme est d'autant plus inquiet de ne pas comprendre un phénomène et
de ne pas pouvoir prédire son évolution qu'il est moins instruit.
C'est ainsi que cette inquiétude diminue avec l'étendue du vocabulaire d'une
personne : plus elle connaît de mots, plus elle maîtrise de concepts et d'outils de
raisonnement, et plus elle connaît de faits et de théories sur lesquels elle peut
s'appuyer pour comprendre le présent et prévoir l'avenir. On constate sans
surprise que la foi religieuse et les superstitions sont plus répandues dans les
sociétés moins avancées (exemple : les peuples animistes comme celui d'Haïti,
68
qui pratique le culte du vaudou) que dans les sociétés avancées (exemple : la
France) ; dans une même société, la nôtre, les gens instruits et surtout les
scientifiques sont bien plus souvent matérialistes que les gens de niveau
modeste.

Le spiritualisme, au contraire, a l'avantage de satisfaire d'emblée beaucoup
d'inquiétudes. La religion révélée apporte des réponses toutes faites :
 à l'inquiétude concernant le salut (« que deviendra mon âme après ma
mort ? ») ;
 à la frustration de l'injustice (« Dieu récompense les bons et punit les
méchants, ici-bas ou au plus tard après la mort ») ;
 à la frustration des inégalités (« tous les hommes sont égaux devant Dieu,
qui les juge selon ce qu'ils font, pas selon leur naissance ou leur fortune »).
Le spiritualisme apporte aussi des réponses à l'ignorance qui taraude certains
esprits : quand on ne comprend pas quelque chose, il suffit de l'attribuer à la
volonté de la Providence, à une finalité qu'Elle seule connaît. Cela permet de
remplacer le « je n'ai pas de chance » et la culpabilité du « je m'y suis mal pris »
par la volonté de cette Providence. Cela permet aussi de se dispenser de l'effort
de chercher une vérité scientifique et de se remettre en question si on la trouve.
En fait, spiritualisme et religion proviennent d'une même caractéristique de la
psychologie humaine : celle d'imaginer des réponses ou des solutions quand elles
font défaut ou qu'elles dérangent ; Sartre montre même que l'homme est souvent de
mauvaise foi. Et si on suit Freud, l'esprit humain est bien plus dominé par son
inconscient que par sa raison.
Tous les hommes, y compris les plus grands savants, ont des préjugés et des vérités
qu'ils sont incapables d'admettre. C'est ainsi qu'Einstein lui-même, dont l'intelligence
exceptionnelle n'avait d'égale que l'honnêteté intellectuelle, a perdu les trois
dernières décennies de sa vie à chercher une solution non probabiliste au problème
de théorie unifiée des champs. Une telle solution n'existe pas, mais Einstein ne
pouvait pas admettre, par pur blocage psychologique, qu'à l'échelle atomique la
réalité n'est pas déterministe au sens traditionnel, qu'elle ne peut être décrite que de
manière probabiliste et non séparable, comme Niels Bohr le lui disait ; Einstein s'était
même exclamé : « Dieu ne joue pas aux dés avec l'Univers ! ».
2.4.4
Comment peut-on être à la fois intelligent et spiritualiste ?
Beaucoup de mes amis sont à la fois intelligents, instruits et spiritualistes. Cela
prouve que, dans leur cas, la raison est dominée par l'intuition. Ils sont spiritualistes
parce que chez eux l'intuition spirituelle est si forte, si prégnante, qu'elle contraint la
raison à en croire les à priori et même à les justifier. Nous verrons plus loin que la
raison n'est pas une valeur pour l'esprit, mais un outil au service des valeurs
dominantes du moment. En somme, mes amis sont spiritualistes parce qu'ils ne
peuvent s'en empêcher, ils n'y songent même pas.
Statistiques sur la religiosité aux Etats-Unis et en France en 2008 [271] :

84 % des Américains se disent croyants, 16 % sont athées ; en France, 80 %
des gens se disent croyants et 11 % sont athées.
69

28 % des Américains adultes ont abandonné leur religion d'origine pour une
autre religion ou l'athéisme.

25 % des Américains de 18 à 29 ans sont athées, ainsi que 25 % des Français
de 18 à 24 ans.
2.4.5
Esprits intuitifs, esprits rationnels et foi en Dieu
L'article [M8] cite des recherches récentes en psychologie sur la relation entre forme
d'esprit (plus intuitif que rationnel, appelé Type 1, ou plus rationnel qu'intuitif, appelé
Type 2) et foi en Dieu. Par définition, les esprits de Type 1 font beaucoup plus
confiance que les esprits de Type 2 à leur intuition et à des raisonnements par
analogie ou induction ; les esprits de Type 2, au contraire, se méfient de ce qui n'est
pas rationnel, objectif, prouvé, et vérifient souvent leurs intuitions (qu'ils ne peuvent
s'empêcher d'avoir) par un raisonnement critique.
Or une certitude immédiate, acquise par intuition, induction ou analogie, demande
beaucoup moins de temps et d'effort qu'une conclusion raisonnée : l'homme a
naturellement tendance à faire le moindre effort, donc à croire sans preuve ou
critique sérieuse, chaque fois qu'une certitude immédiate ne lui paraît pas
(intuitivement) inquiétante. En outre la foi rassure et console, et l'athéisme pas.
Les recherches citées dans [M8] montrent que les esprits intuitifs sont plus
fréquemment croyants que les esprits rationnels. La rigueur rationnelle n'ayant
commencé à gagner du terrain dans la population européenne que vers le 16e siècle,
on comprend que la foi se soit imposée naturellement il y a des millénaires, et que
l'athéisme progresse aujourd'hui le plus chez les gens instruits.
2.4.6
Limite des explications rationnelles. Matérialisme et morale
Peut-être faut-il rappeler ce que Kant a si bien expliqué, à savoir que la raison a des
limites, qu'on ne peut appliquer l'approche scientifique à toute recherche de
connaissance [M3]. Il a aussi expliqué pourquoi la morale (c'est-à-dire l'ensemble
des règles de vie en société, ce qui est permis ou défendu) ne relève pas de la
raison scientifique et de sa vérité objective.
Il ne faut donc pas opposer matérialisme et moralité, ou déclarer que le matérialisme
est amoral ou, pire, immoral. C'est ce que montre [5] de manière très convaincante.
Le reproche d'immoralité souvent fait aux matérialistes vient de ce que leur absence
de foi en Dieu fait qu'ils ne redoutent pas d'être punis s'ils commettent une mauvaise
action sans se faire pas prendre. Cet argument est valable, Kant l'a reconnu. Mais on
peut être matérialiste, honnête et altruiste parce qu'on a été élevé dans le respect de
ces qualités, qu'on a acquis une culture qui vous les fait respecter ou qu'on est
entouré de gens pour qui on se dévalorise en se comportant mal.
70
2.5
Matérialisme et spiritualisme ne peuvent être ni démontrés ni
infirmés
Il existe en philosophie un principe de causalité, postulé à priori comme tous les
principes (et discuté plus bas), qui affirme (en simplifiant) que :

Tout effet possède une cause et son apparition a une explication ;

Tout ce qui existe a une raison d'être et ne peut exister sans avoir été créé.
Si on admet ce principe de causalité, il est impossible de démontrer qu'un
phénomène constaté :

N'est pas dû à une cause matérielle, sa cause étant surnaturelle ou
transcendante ; car ce n'est pas parce qu'on ne connaît pas une cause physique
qu'elle n'existe pas.

Est dû à une cause matérielle, car il pourrait être dû - au moins en partie - à une
cause surnaturelle ou transcendante, dont on ne peut prouver la nonintervention.

N'est pas dû à une cause surnaturelle ou transcendante, car la non-intervention
d'une telle cause ne peut jamais être prouvée.

Est dû à une cause surnaturelle ou transcendante, car le phénomène pourrait
être dû à une cause matérielle inconnue.
On peut donc qualifier aussi bien le matérialisme que le spiritualisme de doctrines
non falsifiables (dont on ne peut démontrer la fausseté) [203]. On peut aussi qualifier
des propositions comme « être matérialiste est cohérent » ou « être spiritualiste est
cohérent » d'indécidables (dont on ne peut prouver ni la véracité ni la fausseté) [6].
Le matérialisme et le spiritualisme sont des doctrines philosophiques qui s'excluent
mutuellement et entre lesquelles chacun doit choisir, à moins de se déclarer
incapable de le faire, donc incapable de prendre position sur des sujets importants
comme le libre arbitre de l'homme ou le déterminisme.
Mais la causalité elle-même peut être remise en cause, et le déterminisme avec elle :
voir le paragraphe "La causalité peut-elle être remise en question ?".
71
2.6
La critique nietzschéenne
Le philosophe Nietzsche a dénoncé le refus de l'homme d'accepter la réalité quand
elle dérange ses préjugés ; Freud en a fait de même un peu plus tard.

Quand ils trouvent la vie dénuée de sens, cruelle ou indifférente et sans
perspective d'amélioration et de bonheur pour eux, certains hommes ont recours
à une religion révélée. Pour Nietzsche, Dieu est une invention humaine par refus
de la réalité, une « idole » créée par les hommes pour apporter artificiellement
du sens, de la perfection et de la justice dans un monde qui n'en a pas parce
qu'il est indifférent à nos valeurs ; croire en l'idole Dieu est puéril, dérisoire ; c'est
une fuite devant la réalité. Nietzsche déplore que les croyants refusent la réalité
et son absence de sens.

Par extension, Nietzsche considère comme un refus puéril de la réalité
l'idéalisme des philosophes des Lumières [47] comme Kant ou celui de
Rousseau, philosophes qui espéraient que la Raison et la Science apporteraient
aux hommes la connaissance, le bonheur et la fin des tyrannies. Croire en un tel
idéal, pour Nietzsche, c'est aussi fabriquer des idoles et y croire, car pour lui le
monde n'a aucun sens, c'est un chaos que l'homme ne comprendra et ne
maîtrisera jamais.
Nietzsche considère aussi comme utopique un idéal matérialiste comme celui de
Karl Marx, qui remplaçait la foi des croyants dans le salut (la rédemption) par un
bonheur ici-bas, après avoir transformé la société bourgeoise capitaliste en
société communiste par révolution prolétarienne. Pour Nietzsche, l'idéal
matérialiste est aussi puéril que l'idéal religieux, c'est aussi une idole créée de
toutes pièces pour être adorée.
Nietzsche critique donc la foi des philosophes des Lumières ou du communisme
dans des idéaux et des valeurs qu'il considère comme chimériques :

Les Droits de l'homme, la Science, la Raison, la Démocratie, le Socialisme,
l'égalité des chances, etc. Il accuse ces philosophes d'être en fait des croyants,
qui ont simplement remplacé la foi religieuse par de nouveaux dieux qu'il baptise
« idoles », et qui cherchent toujours à inventer un monde idéal meilleur que le
vrai.

Les valeurs transcendantes (abstraites, supérieures et extérieures à la vie de
notre Univers).
Nietzsche accuse ces philosophes de chercher - au lieu d'aider l'humanité - à juger et
condamner la vie elle-même, au lieu de l'assumer. Il les accuse aussi de nier la vraie
réalité au nom de fausses réalités. Son accusation repose sur l'idée, 100 %
matérialiste, qu'il n'existe pas de transcendance, que tout jugement est un symptôme
et une émanation de la vie qui fait partie de la vie elle-même, et ne peut se situer
hors d'elle. Nietzsche condamne donc l'idéalisme sous toutes ses formes en tant que
nihilisme, refus puéril de la réalité et espoir d'un monde meilleur futur.
Mais Nietzsche n'en est pas resté à cette philosophie pessimiste, cette
déconstruction des philosophies idéalistes, pour en montrer le caractère vain et
puéril. Il a proposé d'accepter le présent, même si on ne le comprend pas, si on n'en
voit pas la finalité et s'il n'apporte pas d'espoir. Pour lui, le triomphe de la raison
72
consiste précisément à accepter ce qui est, dans l'instant présent, sans en chercher
le sens profond, sans nostalgie du passé (qui ne reviendra pas) ou espoir d'un futur
meilleur (qui n'est pas encore là), c'est-à-dire en se passant de ces non-réalités. La
sagesse consiste même à connaître et aimer cette réalité présente et le destin,
attitude que Nietzsche appelle « le gai savoir ». (Voir dans [48] la célèbre citation
"Dieu est mort !..." ; autres détails sur la philosophie de Nietzsche et les philosophes
postmodernes : [190])
Je constate que cette acceptation d'une réalité, qui nous dérange parce qu'elle n'a
pas de sens, ne console pas du passé et ne promet rien pour l'avenir, est conforme
au déterminisme étendu que je présente et défends dans ce texte. Tout en
l'approuvant, je propose cependant de la dépasser. Voici comment.
Idoles, non ; idéaux, oui
Les idoles que Nietzsche dénonce sont des illusions substituées à la réalité ; et tout
jugement de valeur, toute décision d'action basée sur des idoles risque fort d'être
une erreur. Mais pour peu qu'il ait un minimum d'imagination, un homme ne peut
s'empêcher d'avoir des idéaux, nous le verrons plus bas ; les idéaux humains sont-ils
donc tous de telles idoles, des illusions imaginées pour être adorées ?

Il peut s'agir d'idéaux personnels, comme ceux d'artistes qui rêvent de toujours
plus de beauté et plus de perfection, ou comme ceux de sportifs qui rêvent de
toujours plus se surpasser.

Il peut aussi s'agir d'idéaux altruistes, comme ceux des volontaires de Médecins
sans frontières (http://www.paris.msf.org/) ou ceux de Mère Teresa de Calcutta,
Prix Nobel. Il peut s'agir de l'idéal de Charles de Gaulle, au service d'une
certaine idée de la France, ou de Martin Luther King pour les droits civiques.
Dans tous les cas, l'homme qui a un tel idéal est prêt à se dépasser pour le réaliser,
à risquer sa carrière, sa santé, voire sa vie. Dans cet idéal, issu de la vie quotidienne
et tendu vers un objectif bien terrestre, le dépassement de soi est une
transcendance, une vocation qui ignore ou même méprise les objections de la
raison.
De tels idéaux suscitent notre approbation, voire notre admiration. A la différence des
idoles que dénonce Nietzsche, ils ne nient pas la réalité mais travaillent à l'améliorer.
En quoi un athlète qui refuse la réalité de ses performances actuelles et s'entraîne
pour les dépasser se fait-il nécessairement des illusions ? En quoi le rêve de Charles
de Gaulle pour la France différait-t-il de l'idéal communiste de Marx, qualifié d'idole?
Un progrès majeur paraît souvent utopique tant qu'il n'a pas été réalisé. Quand
Einstein, ingénieur inconnu de 26 ans, s'est attaqué aux bases mêmes de la
physique en refusant les contradictions du principe newtonien d'espace et de temps
absolus, qu'il a osé remplacer par la Relativité [49], il ne créait pas une idole, il en
détruisait une, l'hypothèse à priori de vérité absolue de Newton.
En tant que concept, une idole a un caractère à priori : c'est alors une vérité de
substitution admise sans démonstration. Elle peut se révéler fausse s'il en résulte
une contradiction ou une prévision erronée. Mais l'existence de Dieu ne peut pas
plus être démontrée que son inexistence : Nietzsche a donc qualifié la religion d'idole
en montrant à quel point ses révélations exigent une croyance sans démonstration,
73
une foi basée sur l'intuition ou sur la fuite devant la réalité, donc à quel point la
religion était suspecte. Ses accusations sont vraisemblables, mais ce ne sont pas
des preuves ; la qualification d'idole est souvent un jugement sans preuve.
Si l'idole est un espoir, celui-ci a un caractère utopique en supposant possible
quelque chose qui ne l'est pas. Le communisme de Marx était - et demeure encore
de nos jours - une utopie parce qu'il supposait l'existence future d'hommes bien
meilleurs qu'ils n'ont jamais été. Le monde sans concurrence et l'entraide
internationale des altermondialistes sont pour le moment des utopies, à en juger par
la difficulté des hommes à se mettre d'accord sur des enjeux bien plus modestes.
Mais imaginons que les astronomes détectent un astéroïde de 60 km de longueur,
pesant trois cent mille milliards de tonnes, qui percutera la Terre dans 10 ans à la
vitesse de 15 km/s en risquant d'y détruire toute vie [199] ; il y a fort à parier, alors,
que les hommes s'entendront pour travailler ensemble à un projet de détournement
de cet astre errant : l'utopie d'une coopération internationale sera devenue réalité. Et
que dire de la probabilité, beaucoup plus forte, que l'effet de serre s'emballe et
devienne catastrophique avant la fin du XXIe siècle ? L'utopie d'un accord
international pour diminuer fortement les consommations de combustibles fossiles se
transformera alors en nécessité qui s'impose à tous !
74
2.7
Matérialisme et déterminisme
Un matérialiste refuse toute possibilité d'intervention transcendante dans l'évolution
qu'il constate entre la situation de départ (la cause) d'un système physique et sa
situation d'arrivée (la conséquence) : il affirme que cette évolution est
nécessairement déterministe si elle n'est pas due au hasard. Il postule donc le
déterminisme parce qu'il postule le matérialisme, quitte à admettre dans certains cas
qu'il ne connaît pas l'explication scientifique de l'évolution constatée, quitte à se
remettre en cause à l'occasion et à remplacer une explication par une meilleure. Et il
admet le hasard en tant que cause non transcendante d'un phénomène matériel.
Mais une étude approfondie du déterminisme (comme celle qui fait l'objet de la
troisième partie de ce texte) révèle des conséquences insoupçonnées par l'immense
majorité des gens, philosophes inclus. Elle les amène à remettre en question à la fois
leur compréhension du hasard et de l'enchaînement déterministe des causes et des
conséquences, ainsi que leur processus de décision d'action basé sur une prédiction
de l'évolution de la situation présente.
2.7.1
Résumé sur le matérialisme et prise de position
Voici un extrait de ce qu'écrit Luc Ferry dans [2] pages 21-22 ; je le reproduis ici
parce qu'il résume bien ce qu'est et ce qu'implique le matérialisme, notamment en
matière de réductionnisme [179] et de déterminisme.
"De la vraie nature du matérialisme et de la séduction légitime qu'il exerce
[…] on doit entendre par matérialisme la position qui consiste à postuler que la
vie de l'esprit est tout à la fois produite et déterminée par la matière, en quelque
acception qu'on la prenne. En clair : les idées philosophiques ou religieuses,
mais aussi les valeurs morales, juridiques et politiques, ainsi que les grands
symboles esthétiques et culturels n'ont ni vérité ni signification absolues, mais
sont au contraire relatifs à certains états de fait matériels qui les conditionnent de
part en part, fût-ce de façon complexe et multiforme. Par rapport à la matière,
donc, il n'est pas d'autonomie véritable, absolue, du monde de l'esprit ou, si l'on
veut, pas de transcendance réelle, mais seulement une illusion d'autonomie.
Constance du discours matérialiste : la critique de la religion, bien sûr, mais
aussi de toute philosophie qui postule une transcendance réelle de la vérité des
idées ou des valeurs morales et culturelles.
En ce sens précis, les grandes « philosophies du soupçon » qui ont tant marqué
les années soixante, celles de Marx, Nietzsche et Freud, sont des illustrations du
matérialisme contemporain : on y réduit les idées et les valeurs en les rapportant
à ce qui les engendre « en dernière instance » : l'infrastructure économique, la
Vie des instincts et des pulsions, la libido et l'inconscient. Même s'il prend en
compte la complexité des facteurs qui entrent en jeu dans la production des
idées et des valeurs, le matérialisme doit donc assumer ses deux traits
caractéristiques fondamentaux : le réductionnisme et le déterminisme.
- Tout matérialisme est, en effet, à un moment ou à un autre, un
« réductionnisme » […]. Si l'on entend par réductionnisme la soumission du
spécifique au général et la négation de toute autonomie absolue des
phénomènes humains, le matérialisme ne saurait, sans cesser d'être
matérialiste, s'en passer […]
75
- Tout matérialisme est aussi un déterminisme en ce sens qu'il prétend montrer
comment les idées et les valeurs dont nous croyons pouvoir disposer librement,
comme si nous pouvions sinon les créer, du moins les choisir, s'imposent en
vérité à nous selon des mécanismes inconscients que le travail de l'intellectuel
consiste justement à mettre au jour.
De là, me semble-t-il, la réelle séduction qu'il exerce.
- D'une part, son travail se développe, presque par définition, dans l'ordre du
soupçon, de la démystification : le matérialiste prétend par nature « en savoir
plus » que le vulgaire, puisqu'il se livre à une véritable généalogie de ce qui
apparaît dès lors comme nos naïvetés. La psychanalyse, par exemple,
appartient au registre de la psychologie « des profondeurs », elle est censée
décrypter au plus profond, là où le commun des mortels n'ose guère
s'aventurer ; elle va au-delà des apparences, des symptômes, et se prête ainsi
volontiers à une lecture matérialiste. Même chose, bien sûr, chez Nietzsche ou
chez Marx.
- D'autre part, le matérialisme offre, plus que toute autre option philosophique, la
particularité non seulement de ne pas prendre les idées pour argent comptant,
mais de « partir des faits », de s'intéresser enfin, si je puis dire, aux « vraies
réalités », c'est-à-dire à celles qui sont réellement déterminantes : Freud nous
parle de sexe, Nietzsche des instincts, Marx de l'histoire économique et sociale.
Bref, ils nous parlent de ce qui importe vraiment et que l'on cache si volontiers, là
où la philosophie spiritualiste se tourne vers les abstractions. Or le plus souvent,
c'est vrai, le réel est plus intéressant que les brumes philosophiques."
Commentaires sur ce texte
Pour un matérialiste traditionnel, la pensée est seulement la représentation que le
psychisme humain se fait à l'aide de processus cérébraux où les neurones ont une
activité chimique et électrique. Les neurones établissent des connexions pour
formuler ou mémoriser des pensées. Nous reviendrons sur tout cela plus bas, mais il
convient d'insister sur le fait que la pensée est une interprétation de phénomènes
matériels cérébraux, sans lesquels elle n'existe pas, mais auxquels elle ne se
ramène pas ; entre la pensée (consciente ou subconsciente) et ces phénomènes
matériels il y a une causalité par condition nécessaire et suffisante : pas de pensée
sans mécanismes matériels cérébraux ; et inversement, si mécanismes matériels
cérébraux (résultant du simple fait de vivre ou déclenchés par stimulation électrique
artificielle), alors le cerveau pense de manière subconsciente ou consciente.
Mais contrairement à ce que voudrait un matérialisme traditionnel, une
description des états de conscience et des mécanismes de pensée ne peut se
déduire de mécanismes physiques, fussent-ils biologiques ou génétiques : une
description fidèle, utilisable, a aussi besoin de couches logicielles, d'informations ne
se ramenant pas au fonctionnement des neurones, même si elles ne peuvent s'en
passer.
Spiritualiste, un de mes amis conteste cette présentation en affirmant que la pensée
n'est pas seulement une représentation de processus neuronaux, même si ceux-ci lui
sont indispensables. Pour un spiritualiste il y a quelque chose de plus, quelque
chose de transcendant comme Dieu ou l'âme. C'est ce quelque chose que je décris
plus bas sous forme de modèle logiciel à couches, mais sans Dieu ni âme.
76
Le texte de M. Ferry est erroné sur un point : en affirmant que le matérialisme est
réductionniste [179] il sous-entend qu'il réduit la pensée à des phénomènes
chimiques et électriques. Ce modèle, disons-le tout net, est faux de nos jours parce
que trop réducteur. Le matérialisme moderne s'oppose au matérialisme traditionnel
en admettant l'existence d'une hiérarchie des niveaux d'abstraction logicielle
intermédiaires entre les phénomènes physiques et la pensée consciente : logiciel du
génome interprété par la machinerie cellulaire, logiciel du subconscient et
conscience elle-même [51].
Ce logiciel est une description de la pensée complémentaire des descriptions
physiques et qui ne s'y ramène pas. La pensée de l'homme est comme le
fonctionnement d'un ordinateur, qu'on ne peut comprendre en ne décrivant que le
matériel : pour en dégager la signification pour son utilisateur il faut ajouter le
logiciel ; même si celui-ci ne peut fonctionner sans le matériel, il ne s'y réduit pas. La
complexité d'un système d'exploitation moderne et des données qu'il manipule
rendent souvent l'enchaînement des calculs perceptible par l'homme trop complexe
pour être prédictible par déduction : il est alors déterministe, mais imprévisible ! De
même, l'esprit humain a, en plus de la complexité, des mécanismes subconscients
non déterministes pour un raisonnement logique, dépassant souvent toute
expérience possible : voilà pourquoi et en quoi on peut le qualifier de transcendant.
Nous verrons plus bas à quel point la pensée de l'homme dépasse les possibilités de
celle d'un ordinateur. En nous dotant de telles possibilités, la nature a fait un travail si
merveilleux que nous ne savons pour le moment en comprendre qu'une très petite
partie. Il n'empêche que toute la hiérarchie de niveaux de logiciel génétique et
psychique n'est que cela : une hiérarchie logicielle, dont le niveau de base est celui
qui commande nos mécanismes cellulaires - notamment neuronaux - et en reçoit des
sensations qu'elle transforme en perceptions. L'émerveillement des spiritualistes face
à la nature est compréhensible, mais pour un matérialiste qui représente ces
mécanismes avec des hiérarchies de niveaux d'abstraction il n'y a pas de raison
logique d'expliquer cette merveille par quelque chose de surnaturel.
Par contre, la seconde affirmation de M. Ferry est exacte : tous les phénomènes
physiques sont déterministes parce qu'ils sont régis par la causalité et des lois
stables ; nous verrons cela plus bas, mais nous verrons aussi que les évolutions
déterministes ne sont pas toujours représentables par des algorithmes. Voici
comment des pensées imprévisibles peuvent naître sur un substrat de mécanismes
neuronaux déterministes.

La combinaison d'un grand nombre d'événements déterministes peut produire
un résultat imprévisible.

Un processus à étapes toutes déterministes peut avoir un résultat imprévisible.

Les effets combinés de la complexité structurelle et fonctionnelle et du nombre
d'événements possibles rendent souvent un système imprévisible.
En somme, la complexité de la hiérarchie de processus génétiques et psychiques de
l'homme, fonctionnant dans un environnement à variables innombrables prenant des
valeurs non reproductibles, produit souvent un comportement imprévisible.
77
Dans notre conscience, une idée nous vient lorsqu'elle franchit un certain seuil de
perception, seuil qui dépend d'une quantité de variables comme celles de notre santé
et d'une éventuelle sensation d'urgence, de joie ou d'optimisme.
C'est ainsi que selon la quantité de tel ou tel neurotransmetteur dans notre
cerveau, nous voyons les choses différemment, nos conclusions sont
différentes, nos choix sont différents (voir aussi [283]).
Parmi toutes les idées que notre cerveau esquisse à un instant donné pour résoudre
un même problème, la première qui s'impose à notre conscience et dont nous
examinons la validité par ses conséquences prévisibles n'est pas toujours la même,
parce que les circonstances ne sont pas toujours les mêmes ; et cela ne met pas en
cause la règle déterministe "Les mêmes causes produisent toujours les mêmes
effets".
Prise de position personnelle
Je préfère la doctrine matérialiste en ce sens que, pour comprendre et prévoir, j'ai
davantage confiance dans la raison et l'objectivité que dans l'intuition sans preuve et
la possibilité de la faire partager.
Constatant les progrès de l'humanité, je préfère en attribuer le mérite à l'homme
plutôt qu'à Dieu ; constatant tout ce qui ne va pas, c'est aussi l'homme que je tiendrai
pour responsable.
Je reconnais pourtant bien volontiers que le raisonnement logique ne s'applique pas
à tous les domaines : je ne vois pas comment je pourrais justifier logiquement ma
préférence de la musique de Mozart à celle d'Honegger. Et je ne justifie pas le
postulat de responsabilité de l'homme par la raison, mais par la nécessité utilitaire de
la vie en société, qui ne démontre pas cette responsabilité.
78
2.8
Références
[M1]
Platon, "La République", livre VII (écrit vers l'an 400 avant J. C.) : l'allégorie
de la caverne - http://www.cvm.qc.ca/encephi/CONTENU/TEXTES/REPUB7.HTM
[M2]
Karl Marx - "Contribution à la critique de la philosophie du droit de Hegel"
(1843) - téléchargeable depuis http://marx.engels.free.fr/marx/txt/1843critiqueh.htm
[M3]
Kant :

"Critique de la raison pure" (1781) Editions PUF, traite des limites de la raison et
des connaissances ; contient la fameuse démonstration de l'impossibilité de
prouver que Dieu existe ou qu'il n'existe pas.

"Critique de la raison pratique" (1790) Editions PUF, traite de la loi morale.

"Critique de la faculté de juger" (1788) Editions Flammarion, traite du jugement
de goût et de la finalité téléologique.
[M4]
Physical Review Letters 77, 4887-4890 (1996) "Observing the Progressive
Decoherence of the “Meter” in a Quantum Measurement"
http://prola.aps.org/abstract/PRL/v77/i24/p4887_1
Extrait:
"A mesoscopic superposition of quantum states involving radiation fields with
classically distinct phases was created and its progressive decoherence
observed. The experiment involved Rydberg atoms interacting one at a time with
a few photon coherent field trapped in a high Q microwave cavity. The
mesoscopic superposition was the equivalent of an “atom+measuring apparatus”
system in which the “meter” was pointing simultaneously towards two different
directions—a “Schrödinger cat.” The decoherence phenomenon transforming
this superposition into a statistical mixture was observed while it unfolded,
providing a direct insight into a process at the heart of quantum measurement."
[M5]
Bible (traduction Louis Segond) - http://www.onlinebible.org/html/fre/
La Genèse, 1.20 à 1.27 :
"1.20 - Dieu dit : Que les eaux produisent en abondance des animaux vivants, et
que des oiseaux volent sur la terre vers l'étendue du ciel.
1.21 - Dieu créa les grands poissons et tous les animaux vivants qui se meuvent,
et que les eaux produisirent en abondance selon leur espèce ; il créa aussi tout
oiseau ailé selon son espèce. Dieu vit que cela était bon.
1.22 - Dieu les bénit, en disant : Soyez féconds, multipliez, et remplissez les
eaux des mers ; et que les oiseaux multiplient sur la terre.
1.23 - Ainsi, il y eut un soir, et il y eut un matin : ce fut le cinquième jour.
1.24 - Dieu dit : Que la terre produise des animaux vivants selon leur espèce, du
bétail, des reptiles et des animaux terrestres, selon leur espèce. Et cela fut ainsi.
1.25 - Dieu fit les animaux de la terre selon leur espèce, le bétail selon son
espèce, et tous les reptiles de la terre selon leur espèce. Dieu vit que cela était
bon.
1.26 - Puis Dieu dit : Faisons l'homme à notre image, selon notre ressemblance,
et qu'il domine sur les poissons de la mer, sur les oiseaux du ciel, sur le bétail,
sur toute la terre, et sur tous les reptiles qui rampent sur la terre.
79
1.27 - Dieu créa l'homme à son image, il le créa à l'image de Dieu, il créa
l'homme et la femme."
[M6]
Anne Dambricourt-Malassé, chercheur en paléontologie humaine au CNRS,
secrétaire générale de la Fondation Teilhard de Chardin - "La logique de l’évolution"
http://www.nouvellescles.com/article.php3?id_article=508&var_recherche=Dambrico
urt
Extraits :
"L’évolution, régie par le pur hasard du début jusqu’à la fin, ne saurait avoir la
moindre direction, le moindre but. Pour les partisans du paradigme aujourd’hui
en place, [les matérialistes] prétendre que l’évolution qui a engendré la pensée
réfléchie serait contrôlée par autre chose que le hasard tient du sacrilège.
Cet à priori matérialiste s’est trouvé récemment renforcé par l’arrivée de la
théorie du Chaos, qui se fait fort d’expliquer comment le désordre engendre
spontanément de l’ordre et comment, dans des conditions d’instabilité limite, un
système ouvert à l’énergie peut créer des formes totalement inédites. On appelle
cela le “chaos créateur”, ou “chaos déterministe”. Idée de base : par définition, la
forme que prendra la vie - comme tout système instable à long terme - est
rigoureusement impossible à prédire. Ainsi aurions-nous été, humains,
totalement imprédictibles à l’origine. Ainsi notre avènement n’aurait-il, en soi,
strictement aucun sens.
Il se trouve qu’en comparant l’ontogénèse [78] des os crâniens des singes, petits
et grands, archaïques et contemporains, ainsi que ceux de l’Australopithèque, de
l’Homo erectus, de l’Homo habilis, du Néanderthalien... et de nous-mêmes,
hommes de Cro-Magnon, on tombe sur un processus d’une logique implacable
et continue, s’étalant sur soixante millions d’années, et qui, loin de donner la
primeur au chaos, relativise énormément son rôle créateur, pour laisser la
fonction fondatrice de l’évolution à ce que Teilhard appelait la “loi de complexitéconscience”."
"La plupart des paléontologues aiment bien la Théorie du Chaos. Elle leur
permet d’affirmer que, depuis quatre milliards d’années que la vie existe sur
cette planète, l’apparition des espèces vivantes successives s’est faite de
manière rigoureusement imprédictible. Que l’on puisse supposer l’arrivée de telle
ou telle famille vivante prédictible, leur est inconcevable. Appliquée à l’homme, la
supposition leur devient même insupportable. Pour eux, notre apparition est le
fruit accidentel d’une confluence d’événements à 100 % indépendants les uns
des autres, provoqués par des mutations génétiques aléatoires, se combinant de
façon viable par pure coïncidence. Cela fonde une certaine idée de la liberté,
certes...
Mais j’arrive, quant à moi, à des conclusions diamétralement contraires,
porteuses d’une liberté très différente. Il y a une logique qui se déploie
imperturbablement à travers le halo du hasard - on pourrait même dire : une
logique qui se nourrit du hasard. Il y a quelque chose de très stable, de très
persistant, de très têtu tout au long de l’évolution. Quelles que soient les dérives
de continents, les crises climatiques, les disparitions ou les apparitions
d’espèces, quels que soient les aléas chaotiques - régis, en effet, par un hasard
imprédictible -, on voit, sur soixante millions d’années, la base du crâne des
primates, des singes, grands singes, puis des hominiens, des hommes
80
archaïques et des hommes modernes, imperturbablement se contracter, suivant
une logique explicite, autorisant des prédictions dans la genèse des formes."
Le raisonnement de ce chercheur, dont la foi et l'admiration pour Teilhard de Chardin
confortent le spiritualisme, fait la même erreur que la téléologie : constatant qu'elle
peut concevoir un lien entre divers phénomènes, et que ce lien ne peut être expliqué
autrement que par le hasard et la théorie du chaos, qui la dérangent, elle l'attribue à
une volonté extérieure, à une finalité…
Et ce chercheur accuse aussi les autres scientifiques d'être mentalement incapables
d'accepter le fait que l'évolution des espèces est prévisible, bien qu'aucun
scientifique n'ait jamais pu en prévoir les prochaines étapes. En fait, son intuition de
l'existence d'un plan divin d'évolution est si aveuglante qu'elle lui fait considérer la
pensée des scientifiques qui s'en tiennent aux observations comme bloquée !
Nous avons décrit là comment les mutations génétiques de l'évolution sont régies par
la loi de convergence des attracteurs étranges de Prigogine. La « logique explicite »
de ce chercheur n'existe que dans son esprit, c'est une illusion due à sa volonté de
voir un ordre spirituel et une finalité régir l'évolution.
[M7]
Citations d'Ilya Prigogine :

Encyclopédie Universalis version 10, article "Hasard et nécessité"

Voir aussi [26].
[M8]
Article "How Critical Thinkers Lose Their Faith in God", publié dans Scientific
American de juillet 2012.
81
Troisième partie
3.
Le déterminisme étendu une contribution pour la pensée rationnelle
"J'accepte de vivre dans le doute, l'incertitude et l'ignorance. Je
pense qu'il vaut mieux vivre sans savoir qu'avoir des réponses
qui peuvent être fausses. En restant dans l'incertitude tout en
progressant, nous laissons la porte ouverte à des solutions
nouvelles. Nous refusons de nous emballer pour l'information, la
connaissance ou la vérité absolue du jour, pour rester dans
l'incertitude. Pour progresser, il faut laisser entrouverte une porte
sur l'inconnu."
Richard Feynman - interview sur la BBC, 1981 [245]
82
3.1
Prédictions d'évolutions
Avant d'agir, l'homme a besoin de comprendre la situation, ainsi que de
prévoir son évolution et les conséquences d'une éventuelle action. Après le
cas simple d'une situation où n'interviennent que des lois physiques de la
nature, nous aborderons l'aptitude des raisonnements humains à prévoir.
Le texte qui suit est repris de l'introduction publiée séparément ; pour le sauter,
cliquer ici.
Hasard, chaos et déterminisme : les limites des prédictions
Chacun de nous a des définitions du hasard, du chaos et du déterminisme. J'ai pris la
liberté de modifier et compléter ces définitions par souci de rigueur et pour les rendre
cohérentes entre elles. Le but de ce texte est de bien cerner les limites de ce qu'on
peut prédire lors d'une évolution.
Compréhension, prévision et prédiction d'une évolution :

comprendre une situation nécessite la connaissance du passé et de l'évolution
depuis ce passé, pour situer l'état actuel par rapport à eux ;

prévoir une évolution, c'est en construire une représentation mentale. Cela
nécessite la connaissance des lois d'évolution qui s'appliquent à l'état actuel ;

prédire une évolution ou une situation future, c'est énoncer une prévision.
Le principe dont l'application permet la compréhension d'une situation physique et la
prévision de son évolution est le déterminisme.
3.1.1
Définition, promesses et critique du déterminisme philosophique
L'expression déterminisme traditionnel désigne tantôt une doctrine philosophique,
tantôt un principe scientifique. Ce texte étudie le déterminisme au sens :

Des conséquences d'une cause ;

Du déroulement du processus d'évolution qui fait passer un système d'un état de
départ à un état d'arrivée au bout d'un certain temps ;

De la possibilité de prévoir l'avenir ou de reconstituer le passé connaissant le
présent.
Définition et promesses du déterminisme philosophique
La définition traditionnelle du déterminisme philosophique a été publiée par Laplace
en 1814 dans l'Essai philosophique sur les probabilités [200], où on lit pages 3 et 4 :
"Nous devons donc envisager l'état présent de l'Univers comme l'effet de son
état antérieur et comme la cause de celui qui va suivre. Une intelligence qui pour
un instant donné, connaîtrait toutes les forces dont la nature est animée, et la
situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste
pour soumettre ces données à l'analyse, embrasserait dans la même formule les
mouvements des plus grands corps de l'Univers et ceux du plus léger atome :
rien ne serait incertain pour elle, et l'avenir comme le passé, serait présent à ses
yeux. L'esprit humain offre, dans la perfection qu'il a su donner à l'Astronomie,
une faible esquisse de cette intelligence. Ses découvertes en Mécanique et en
83
Géométrie, jointes à celle de la pesanteur universelle, l'ont mis à portée de
comprendre dans les mêmes expressions analytiques les états passés et futurs
du système du monde."
Le déterminisme philosophique affirme donc :

Que l'avenir est complètement déterminé par le présent ;

Qu'il est complètement prévisible connaissant parfaitement le présent ;

Qu'une connaissance parfaite de la situation présente permettrait de reconstituer
en pensée tout le passé qui y a conduit ;

Qu'il existe, pour la situation présente, une chaîne de causalité unique
commençant infiniment loin dans le passé et se poursuivant infiniment loin dans
l'avenir.
Le postulat de déterminisme philosophique a été construit par induction à partir de
constatations d'évolution d'une situation à ses conséquences dans la vie courante,
tout particulièrement en considérant les mouvements des planètes, prévisibles avec
précision. En affirmant qu'il s'applique - et s'est toujours appliqué - à toutes les
évolutions, on en a fait un principe philosophique régissant les lois d'évolution.
3.1.1.1
Le déterminisme philosophique est contredit par des faits
Le déterminisme philosophique, qui nous promet connaissant le présent la possibilité
de prévoir tout l'avenir et de retrouver mentalement tout le passé, est contredit par de
nombreux phénomènes de la nature cités dans ce livre. Comme un seul contreexemple suffit pour contredire une affirmation qui ne peut être que vraie ou fausse,
en voici un.
Décomposition radioactive (fission nucléaire)
Un échantillon d'uranium 238 voit ses atomes se décomposer spontanément, sans
aucune cause autre que le temps qui passe ; un atome d'uranium se transforme
alors en un atome d'hélium et un atome de thorium. Le nombre d'atomes qui se
décomposent par unité de temps suit une loi connue, qui prévoit que 50 % des
atomes d'un échantillon de taille quelconque se décomposeront en un temps fixe T
appelé « demi-vie de l'uranium 238 », puis la moitié du reste (c'est-à-dire ¼) dans le
même temps T, puis la moitié du reste (1/8) dans le même temps T, etc.
La décomposition radioactive naturelle, c'est-à-dire spontanée, s'explique par
l'instabilité de l'énergie de liaison des neutrons et protons du noyau d'un atome
radioactif. Ce phénomène est inexplicable dans le cadre de la physique
macroscopique, mais il s'explique en Mécanique quantique sous le nom d'effet
tunnel : l'énergie d'excitation d'un noyau, instable, peut parfois dépasser l'énergie
potentielle appelée « barrière de fission » de l'élément, entraînant une
déformation si grande du noyau que celui-ci se décompose.
Contrairement à la promesse de prédiction de l'avenir du déterminisme
philosophique, on ne peut savoir quels atomes se décomposeront pendant un
intervalle de temps donné, ni à quel instant un atome particulier se décomposera, ni
quel est le premier atome qui se décomposera, ni quand cela se produira. A l'échelle
macroscopique, la décomposition radioactive suit une loi statistique, valable pour une
84
population d'atomes mais ne permettant pas de prévoir l'évolution d'un atome donné.
A l'échelle atomique, la stabilité d'un noyau dépend d'une énergie de liaison instable,
qui varie sans cause externe à l'atome et ne permet de prévoir l'évolution de celui-ci
(et son éventuelle décomposition) que de manière probabiliste. Le déterminisme
philosophique de Laplace excluant les variations spontanées et imprévisibles ne
s'applique donc pas aux décompositions radioactives naturelles.
En outre, lorsqu'un échantillon contient des atomes résultant d'une décomposition,
on ne peut savoir à quel instant chacun d'eux s'est décomposé, ce qui contredit le
déterminisme philosophique au sens reconstitution du passé.
Le déterminisme philosophique ne peut donc tenir ses promesses ni concernant la
prédiction de l'avenir, ni concernant la reconstitution mentale du passé : c'est donc
un principe faux dans le cas de la décomposition radioactive. Et comme, d'après le
rationalisme critique présenté dans ce livre, il suffit d'un seul contre-exemple pour
qu'une affirmation soit fausse, nous considérons le déterminisme philosophique
comme erroné, bien que la définition ci-dessus figure dans certains dictionnaires
philosophiques.
Voir aussi une réfutation philosophique du déterminisme philosophique de Laplace.
Nous allons donc reprendre le problème de compréhension du présent et prédiction
de l'avenir d'une manière moins ambitieuse, en repartant de la causalité à la base du
déterminisme philosophique et en abandonnant provisoirement sa promesse de
prédiction et de reconstitution.
3.1.2
Le postulat de causalité
Depuis qu'il existe, l'homme a remarqué certains enchaînements : une même
situation S est toujours suivie du phénomène d'évolution P. Par une démarche
naturelle d'induction, il en a déduit un postulat général : « Les mêmes causes
produisent toujours les mêmes conséquences ». Et en réfléchissant aux conditions
qui régissaient les enchaînements observés, il en a déduit le postulat de causalité
que j'énonce comme suit sous forme de condition nécessaire et suffisante.
3.1.2.1

Définition du postulat de causalité
Condition nécessaire : Toute situation a nécessairement une cause qui l'a
précédée et dont elle résulte ; rien ne peut exister sans avoir été créé
auparavant.
Donc, si je constate un phénomène ou une situation, je suis sûr qu'il ou elle a
une cause dans le passé, mais je renonce pour le moment à pouvoir reconstituer
mentalement ce passé en déduisant cette cause de sa conséquence observée,
comme le promet le déterminisme philosophique.

Condition suffisante : il suffit que la cause existe au départ pour que la
conséquence ait lieu (c'est une certitude).
Notons que cette conséquence est un phénomène d'évolution, pas une situation
finale : nous renonçons ainsi à la promesse de prédiction du résultat de
l'évolution, en ne conservant que le postulat de déclenchement de celle-ci.
Exemple : je tiens une pierre dans ma main ;

Pour qu'elle tombe je dois la lâcher, condition nécessaire ;
85

Si je la lâche elle tombe, condition suffisante.
Dans certains cas favorables, le postulat de causalité répond aux besoins de la
pensée rationnelle de comprendre et de prévoir :

La condition nécessaire permet d'expliquer au moins en partie une constatation
(phénomène ou situation), en remontant le temps jusqu'à sa cause ;

La condition suffisante permet de prévoir une conséquence, en suivant le temps
depuis sa cause : l'évolution est déclenchée à coup sûr.
Certains philosophes appellent la causalité ci-dessus cause efficace [39]. Pour
Schopenhauer, c'est le Principe de raison suffisante du devenir [173].
3.1.2.2
Causalité, réalisme et idéalisme
Nous avons vu ci-dessus qu'il y a deux doctrines métaphysiques concernant
l'indépendance entre une réalité censée exister objectivement, indépendamment de
l'homme qui s'en construit des représentations mentales, doctrine appelée réalisme,
et l'idéalisme, qui prétend que toute réalité physique dérive nécessairement d'une
idée, d'une pensée ; l'idéalisme est la doctrine du philosophe grec Platon.

Selon la doctrine réaliste, la causalité est une relation entre les choses ellesmêmes, régissant leur durée, leur succession dans le temps, leur interaction ou
(nous le verrons plus bas) une traduction d'une représentation en une autre.

Selon la doctrine idéaliste, la réalité nous est cachée et la causalité ne relie que
des abstractions, qui la représentent ou non.
Selon le domaine de connaissance considéré, une des deux approches peut être
préférée à l'autre.

En physique traditionnelle, la doctrine réaliste permet de décrire au moyen de
formules des phénomènes ou situations réels, et le passage d'une situation à sa
conséquence. Par exemple, une formule permet de prévoir avec une précision
acceptable ce qui se passera dans une situation donnée, c'est-à-dire comment
elle évoluera. La causalité est alors précise et fiable.

En psychologie, la doctrine idéaliste s'impose, car la réalité de l'esprit humain est
trop complexe pour être représentée de manière complète et claire. On ne
connaît que certains mécanismes mentaux et de manière approximative, avec
beaucoup de cas particuliers et peu ou pas d'informations chiffrées. La causalité
est alors peu précise et peu fiable, faisant parfois appel à des non-dits.
A la causalité précise et fiable de la physique, base du déterminisme scientifique et
du déterminisme étendu, s'ajoute donc la causalité approximative et de fiabilité
incertaine des sciences humaines, à laquelle nous associerons, par définition, un
déterminisme humain.
3.1.2.3
Causalité, nécessité et explication du monde
La raison justifie l'existence des causes des situations et phénomènes en postulant
que tout ce qui existe ou arrive a une cause, et que rien n'existe ou n'arrive sans
cause [99]. Et elle prévoit l'évolution des situations en appliquant les lois physiques.
86
La cause explique pourquoi cela existe, est arrivé ou arrivera, connaissance plus
approfondie qu'une simple certitude d'existence. L'existence de la cause implique
nécessairement la conséquence, mais attention à la réciproque : une situation
constatée peut avoir plusieurs causes possibles.
Exemple : un homme trouvé mort a 3 balles dans la tête. Il n'a donc pu se
suicider, mais plusieurs personnes qui l'ont fréquenté peuvent l'avoir assassiné.
Nous étudierons ci-dessous en détail le principe de raison suffisante, qui énonce une
relation certaine, nécessaire : l'existence de la cause implique nécessairement la
conséquence.
Absurdité du concept « d'être absolument nécessaire »
D'après ce qui précède, l'expression « un être absolument nécessaire » (que l'on
rencontre dans des textes philosophiques comme [172]), où « absolument » signifie
« indépendamment de toute condition, donc de toute cause », est absurde car
« absolument » contredit « nécessaire », qui implique une cause ; il n'existe ni être ni
situation absolument nécessaire ! L'existence d'un être absolument nécessaire est
l'objet des preuves ontologiques de l'existence de Dieu, preuves dont Kant a
démontré la fausseté.
Exemple de pensée métaphysique creuse extrait de la biographie du philosophe
Avicenne publiée dans [172] :
"Le point extrême auquel la pensée puisse s'élever, après avoir parcouru toute la
série de la causalité, est celle de l'Être absolument nécessaire dont le contraire
est le Possible. L'absolument Nécessaire est ce qui, supposé comme non
existant, serait nécessairement inconcevable, tandis que le Possible est ce qui
se peut également bien concevoir comme existant et comme non existant."
Commentaires sur cette citation : il n'y a pas de limite à ce que l'esprit humain
peut concevoir, il y a seulement des objets dont l'existence est possible parce
qu'elle ne contredit aucune loi physique, et d'autres qui ne peuvent exister
ailleurs que dans l'imagination. « Ce qui, supposé comme non existant, serait
nécessairement inconcevable » est une absurdité : pour supposer que quelque
chose n'existe pas il faut d'abord l'avoir conçu (défini), ce qui l'empêche d'être
inconcevable !
En outre, il n'y a aucun rapport de cause à effet possible entre ce que l'esprit
peut concevoir et une existence matérielle, en vertu du principe d'homogénéité ;
on n'a donc pas le droit de concevoir quelque chose dont l'existence physique
est impossible sans prouver qu'elle l'est parce qu'elle contredit des réalités
matérielles.
3.1.3
Principe de raison suffisante
Le principe de raison suffisante fait partie des principes de base des raisonnements,
sans le respect desquels ils ne pourraient pas être logiques. Enoncé : rien n'existe ou
n'arrive sans qu'une cause ait rendu sa survenance nécessaire, c'est-à-dire
inévitable. Pour qu'une chose soit comme elle est et pas autrement, il y a une raison
suffisante.
Nous analysons ci-dessous ce principe parce qu'il permet de mettre en perspective
le déterminisme objet du présent ouvrage, en le situant par rapport aux trois autres
87
principes de raison suffisante. Notre analyse est basée sur le livre de Schopenhauer
[173].
3.1.3.1
Les 4 domaines régis par le principe de raison suffisante
Remarques préalables

Toute connaissance suppose nécessairement un sujet qui connaît et un objet
qu'il connaît ; sans l'une de ces notions, l'autre n'a pas de sens.

Un sujet ne peut se connaître lui-même complètement, car il ne peut se placer
« à l'extérieur » de lui-même, où il connaîtrait par exemple sa connaissance,
c'est-à-dire l'état actuel et le fonctionnement de sa conscience.
Définition des 4 domaines de pensée régis par le principe de raison suffisante
Décomposons les domaines de pensée où intervient la causalité comme suit.

Ou la causalité est celle de la nature, régie par des lois physiques objectives,
indépendantes de l'homme, conformément au réalisme. Schopenhauer parle
alors de raison suffisante du devenir, pour justifier chaque évolution par sa
nécessité physique. Dans tout cet ouvrage nous appellerons ce principe le
déterminisme.

Ou la causalité est celle de la pensée humaine, et il y a deux cas :
 La pensée régie par la raison, c'est-à-dire logique ; on peut alors distinguer
les propositions proprement dites (affirmations, certitudes) des mécanismes
logiques fondamentaux de l'esprit qui les créent et les manipulent.
 Dans le cas des propositions, Schopenhauer parle de raison suffisante
du connaître, pour justifier chaque proposition par sa nécessité logique.
 Dans le cas des mécanismes fondamentaux de l'esprit, Schopenhauer
parle de raison suffisante de l'être, pour décrire les concepts
nécessaires à la représentation et la manipulation dans l'esprit de
réalités matérielles (objets, situations ou phénomènes), ou d'êtres
abstraits comme en mathématiques.
La nécessité de ces concepts provient de la manière dont notre
esprit se représente l'espace, le temps, les grandeurs physiques
fondamentales et les abstractions diverses, avec les opérations
mentales permises sur eux.
 La pensée dominée par des affects [253], des intuitions, « le cœur » dirait
Pascal, qui écrivait dans ses Pensées [198] : "Le cœur a ses raisons que la
raison ne connaît point ; on le sait en mille choses.". Dans ce cas,
Schopenhauer parle de principe de raison suffisante de vouloir, ou loi de la
motivation, nécessité de satisfaire ses désirs en vertu de laquelle le sujet
veut :
 soit connaître un objet pour l'apprécier par rapport à ses valeurs ;
 soit agir sur lui plus tard.
Très général, le principe de raison suffisante s'applique :

Au domaine des objets, situations et phénomènes matériels, dont il explique
l'existence ou la survenance ;
88

Au domaine des représentations ou décisions de l'esprit, abstractions dont il
justifie la conception.
Avec cette classification, il n'y a que 4 types de principes de raison suffisante. Tous
quatre ont en commun d'impliquer deux étapes successives. Voyons les détails.
3.1.3.2
Principe de raison suffisante du devenir - Déterminisme
Le principe de raison suffisante du devenir affirme la nécessité physique de
l'évolution d'une situation initiale dont elle est la conséquence par l'action d'une loi de
la nature, c'est-à-dire le déterminisme physique. Il implique une succession : la
conséquence suit la situation qui la cause.
Le plus souvent, affirmer qu'une évolution est déterministe c'est affirmer que son
résultat est prédictible par application d'une loi physique, éventuellement en
appliquant une formule ou en déroulant un algorithme ; c'est aussi affirmer que ce
résultat ne sera pas dû au hasard. Nous verrons plus bas en détail des exceptions
importantes à cette prédictibilité.
Une situation décrit des objets physiques, indépendants ou non, mais c'est la
situation initiale (l'état initial) qui est cause de l'évolution de ces objets, pas les objets
eux-mêmes ; et la conséquence de la situation initiale est cette évolution, pas
l'ensemble des objets de la situation finale.
Une situation est une abstraction, une représentation sous forme de « photographie
instantanée ». Ce n'est pas elle qui est visible, ce sont ses objets. Une situation est
une représentation construite par l'esprit de ces objets et des relations entre eux, et
c'est elle (non ses objets ou relations) qui est cause de son évolution.
L'évolution affecte les objets et leurs relations, pas la situation initiale, photographie
d'un passé immuable. L'état d'ensemble de ces objets, à un instant qui suit l'état
initial, définit une nouvelle situation. Le caractère final éventuel de celle-ci est
purement arbitraire, l'instant de fin de l'évolution étant lui-même une décision
humaine ; une même situation initiale, cause de son évolution, a donc une infinité de
situations conséquences, selon l'instant de chacune.
Déterminisme d'évolution et déterminisme de traduction
Un cas particulier d'évolution est la traduction instantanée d'un concept en un autre,
par application d'une formule ou d'un algorithme. Exemple : la loi d'attraction
universelle de Newton entre deux points matériels de masses M et M' distants de d
s'exprime par la formule F = GMM'/d², où G est la constate universelle de gravitation,
G = 6.67 .10-11 Nm2/kg2. Connaissant M, M' et d, on en déduit immédiatement la
force d'attraction F ; cette force existe sans délai d'évolution, dès qu'existent deux
masses séparées. Le déterminisme régit donc, en plus des lois d'évolution dans le
temps de la nature, des lois et méthodes de calcul traduisant des données initiales
en un résultat final qui est leur conséquence, sans délai d'évolution.
3.1.3.3
Principe de raison suffisante du connaître
Ce principe justifie des propositions (affirmations qui ne peuvent être que toujours
vraies ou toujours fausses) par leur nécessité logique. La justification implique une
succession : les prémisses précèdent les conséquences. Une proposition ne peut
89
être jugée vraie que si on sait pourquoi ; sa vérité appartient alors à l'une des 4
catégories suivantes.
Vérité transcendantale (résultant de nos facultés logiques à priori)
Une vérité transcendantale est une affirmation qui ne peut se déduire d'aucune autre
ni de l'expérience, et qui est considérée comme nécessaire à toute connaissance
possible. C'est un résultat de l'application de nos facultés logiques à des concepts à
priori (créés par l'esprit indépendamment de toute expérience). Exemples :

Il existe des nombres entiers (concept à priori) et des opérations sur ces
nombres entiers comme l'addition ou la comparaison ;

Principes de logique comme « Rien n'arrive sans cause ».
Vérité métalogique
C'est l'un des principes de la logique [99], base de toute pensée rationnelle et des
axiomatiques dans le cadre desquelles on démontre des vérités formelles [67]. Les
facultés logiques utilisées pour construire des vérités transcendantales et des vérités
logiques sont basées sur des vérités métalogiques.
Vérité logique (formelle)
C'est un théorème ou la vérité d'un théorème, proposition résultant d'une
démonstration basée sur une ou plusieurs propositions vraies préexistantes dans le
cadre d'une axiomatique. Exemples :

Conséquence d'une définition ou d'un syllogisme ;

Démonstration par applications successives des principes de la logique [99] à
des axiomes ou théorèmes.
Attention : une vérité formelle n'a pas de valeur sémantique. Une proposition
formellement vraie n'est vraie que dans sa forme, établie dans le cadre logique de
son axiomatique. Une éventuelle vérité sémantique ne peut se juger qu'avec des
comparaisons avec des objets extérieurs à l'axiomatique : voir [67a] et [220].
Vérité empirique
C'est une vérité résultant de nos sens ou d'une expérience. On la considère comme
vraie par application de la doctrine réaliste.
3.1.3.4
Principe de raison suffisante de l'être (possibilité de représentation)
Ce principe décrit les concepts nécessaires à la représentation dans l'esprit de
réalités matérielles (objets, situations ou phénomènes) ou d'êtres abstraits comme
en mathématiques. La nécessité de ces concepts provient de la manière dont notre
esprit se représente l'espace, le temps, les grandeurs physiques fondamentales, les
concepts mathématiques et les opérations mentales permises sur eux. Ces concepts
décrivent des propriétés :

Au sens de l'espace et du temps (concepts fondés sur des perceptions intuitives,
à priori, ne faisant pas partie des attributs de la chose en soi) : la position d'un
objet dans l'espace est définie par rapport à un repère (référentiel), jamais dans
l'absolu ; de même, un événement est repéré par rapport à une origine et un
sens des temps ;
90

Au sens des grandeurs fondamentales de la physique : masse-énergie, charge
électrique, spin, etc. L'importance de ces grandeurs fondamentales,
indispensables pour caractériser un objet réel chaque fois qu'il existe, n'était pas
reconnue à l'époque de Kant et de Schopenhauer ;

Au sens mathématique. Exemples : chaque nombre entier (ou élément d'une
suite) est défini à partir de son prédécesseur ; théorèmes basés sur une
axiomatique.
Les concepts nécessaires pour représenter une réalité matérielle en sont déduits par
perception, mesure expérimentale et/ou abstraction. Les formules et opérations
mathématiques sont utilisées soit pour modéliser une loi physique, soit pour situer un
concept d'objet par rapport à d'autres tels que des unités, des axes orientés, etc.
Le principe de raison suffisante de l'être implique une succession de
représentations : les concepts fondamentaux sont associés par l'esprit qui crée une
représentation de réalité matérielle ou d'être abstrait.
3.1.3.5
Principe de raison suffisante de vouloir, ou loi de la motivation
La raison suffisante de vouloir est la nécessité de satisfaire ses désirs. Le sujet veut :

soit connaître l'objet, pour l'apprécier ensuite par rapport à ses valeurs ;

soit agir sur lui plus tard.
Dans les deux cas, ce principe implique une succession de représentations : le motif
est suivi par l'acte.
Du fait même qu'il est conscient, un homme veut quelque chose à tout instant.
Chaque volonté a des degrés, depuis un faible désir jusqu'à une passion, et chacune
correspond à une valeur au moins. Chaque affect [253] d'un homme correspond à
une valeur et à quelque chose qu'il veut ; chaque état de conscience d'un sujet
comprend au moins un affect et une volonté. Le sujet qui connaît (par sa conscience)
est le même que celui qui apprécie une valeur et celui qui veut : connaissance,
jugement de valeur et volonté sont indissociables. Mais, à un instant donné, un sujet
connaît mieux ce qu'il veut que lui-même, c'est-à-dire ce qu'il est.
Dans chaque situation consciente ou subconsciente, l'homme juge ses
caractéristiques selon ses valeurs. Ces jugements sont des raisons suffisantes pour
une action destinée à en savoir davantage ou à obtenir un résultat désirable. Il y a là
une forme de causalité, un automatisme très rapide régissant le psychisme humain,
causalité due au lien entre les trois dimensions d'un sujet : conscient, appréciant et
voulant.
Le principe de raison suffisante de vouloir est la forme humaine du déterminisme de
la nature. Déterminisme humain, il gouverne la traduction d'une sensation, d'un affect
ou d'une idée en volonté de connaître ou d'agir, comme le déterminisme physique
gouverne la traduction d'une donnée en une autre ou l'évolution d'une situation par
application d'une loi de la nature. (Détails)
91
3.1.3.6
Réciproques d'une raison suffisante d'évolution
L'existence d'une raison suffisante d'évolution entraîne celle de sa conséquence,
l'évolution elle-même ; inversement, l'absence d'évolution entraîne l'absence de toute
raison suffisante d'évolution. Ces propositions sont évidentes.
Par contre :

L'absence d'une raison suffisante d'évolution n'entraîne pas l'absence de sa
conséquence, si l'évolution correspondante peut résulter d'une autre raison
suffisante.
Exemple : l'absence de clou sur la chaussée ne garantit pas que mon pneu
avant droit ne se dégonflera pas ; il pourrait le faire parce qu'il est mal monté sur
sa jante ou parce que j'ai heurté un trottoir.

L'existence (la constatation) d'une évolution n'entraîne celle d'une raison
suffisante particulière que si d'autres raisons suffisantes n'auraient pas pu
produire le même effet. Exemples :
 La victime est morte d'une balle de pistolet tirée à deux mètres ; on ne peut
être sûr que l'assassin est son beau-frère, qui la détestait et a un pistolet de
ce calibre-là, que si aucun autre porteur de ce type de pistolet n'a pu être
présent lors du meurtre.
 Une statistique montre que 40 % des gens qui ont pris un certain remède
homéopathique ont guéri en un mois au plus ; pour en déduire que la prise
de ce remède guérit 40 % des malades il faudrait être sûr qu'aucune autre
cause de guérison n'était possible : ni guérison spontanée, ni effet placebo,
ni autre traitement concomitant, etc.
3.1.3.7
Raison suffisante et chaîne de causalité
Toute raison suffisante est basée sur une ou plusieurs autres, définissant une chaîne
de causalité qui remonte le temps jusqu'à des causes premières, postulées faute
d'en connaître la cause – si elle existe. Dans notre Univers, toutes les causes
physiques remontent dans le temps jusqu'à l'inflation qui précède le Big Bang, parce
que nos connaissances physiques ne nous permettent pas de penser ce qui
précéderait l'inflation autrement que de manière spéculative [313].
3.1.4
Principe d'homogénéité
Selon [16-b], ce principe de logique est dû à Aristote, qui l'a énoncé sous forme
d'interdit : "On n'a pas le droit de conclure d'un genre à un autre" (texte précis : [16a]). Il voulait dire qu'une relation logique ne peut exister qu'entre deux objets du
même genre. Exemples :
Relation de physique
Une comparaison n'est possible qu'entre grandeurs de même type :

A = B ; A  B et A  B ne sont possibles que si A et B sont tous deux des
masses (ou des longueurs, ou des durées, etc.).

Toute mesure comparant une grandeur à une unité, on ne peut mesurer une
masse en unités de charge électrique ou de longueur : on dit que ces grandeurs
sont incommensurables entre elles.
92
Concepts d'ordres différents
Une masse et une charge électrique sont de genres (on dit aussi "d'ordres")
différents ; aucun des deux ne peut se déduire directement de l'autre, aucun ne peut
être directement cause ou conséquence de l'autre (une masse ne devient pas une
charge électrique et ne résulte pas d'une charge électrique).
Toutefois, on peut passer d'un genre à un autre lorsqu'on dispose d'un intermédiaire
qui est des deux genres [16-a (2)]. Ainsi, lorsqu'on parle de l'aire d'un champ de blé
(exemple : 100 hectares) et d'un poids récolté en quintaux, on peut passer de l'aire à
la récolte correspondante par l'intermédiaire d'un rendement (exemple : 70 quintaux
à l'hectare) qui est à la fois du genre aire et du genre poids.
Action de l'esprit sur la matière
Cette action, estimée possible par certains spiritualistes [1f] (idéalistes disciples de
Platon), est contraire au principe d'homogénéité. Du reste, elle contredirait la
physique : une action matérielle n'est possible qu'avec un échange d'énergie, et on
ne voit pas comment une idée abstraite ou une pensée humaine pourraient fournir ou
absorber l'énergie mise en jeu.
Une idée n'est cause ou conséquence que par l'intermédiaire d'un esprit humain, ou
de Dieu pour les croyants. Une réalité ne peut être cause d'une idée que dans un
esprit qui pense.
3.1.4.1
Seul l'esprit humain peut ignorer le principe d'homogénéité
L'esprit humain peut créer des relations d'un genre vers un autre sans difficulté, sans
la moindre impression d'erreur ; c'est un effet de son aptitude à associer n'importe
quel concept à n'importe quel autre car son imagination est libre.
Exemple mathématique : axiome de Cantor-Dedekind ou axiome de continuité.
"Si, sur une droite D, on reporte les points A1, A2, …, An, d'une part, les points
B1, B2, …, Bn d'autre part, les abscisses des premiers formant une suite an non
décroissante de nombres rationnels (fractions), celles des seconds une suite bn
non croissante de nombres rationnels, la différence bn − an restant positive et
tendant vers zéro lorsque n croît, les segments emboîtés [AnBn] ont un point
commun unique M, auquel correspond suivant les cas un nombre rationnel ou un
nombre irrationnel."
Dans cet exemple, on établit une correspondance biunivoque entre l'ensemble
des points d'une droite, concepts géométriques, et l'ensemble des nombres
réels, concepts numériques, chacun de ces derniers étant défini comme limite
commune de deux suites de nombres rationnels qui convergent en sens opposé.
La pensée en tant que processus d'interprétation
Beaucoup de philosophes contestent à tort l'origine matérialiste de la pensée en tant
qu'effet du fonctionnement du cerveau. Ils raisonnent comme ceci : puisque ce
fonctionnement (matériel) est d'un genre différent de la pensée (abstraite), la pensée
ne peut provenir seulement de causes matérielles, en raison du principe
d'homogénéité, il doit y avoir « autre chose ».
Ils se trompent : les neurosciences expliquent que la pensée est la perception
humaine du fonctionnement du cerveau lorsque celui-ci interprète ses connexions de
neurones. C'est cette interprétation qui transforme un état matériel de neurones en
93
abstractions ; elle constitue la seule mise en relation entre concepts de genres
différents qui ne viole pas le principe d'homogénéité. En reliant des abstractions,
l'esprit humain peut créer n'importe quelle relation, même fantaisiste ou absurde ; il
suffit que certains groupes de neurones (des « cliques ») créent, modifient ou
suppriment diverses connexions entre eux. Le besoin intuitif d'« autre chose » de ces
philosophes résulte du caractère imprévisible de certaines pensées, dû à notre
incapacité de décrire rationnellement les mécanismes subconscients ; ils considèrent
comme « besoin » un effet de l'ignorance humaine de ces mécanismes.
Voir le modèle « logiciel à couches » de la pensée.
3.1.4.2
Déterminisme et principe d'homogénéité
Le déterminisme non-humain ne s'applique qu'aux évolutions physiques ; il ne
s'applique pas à la pensée parce que celle-ci comprend une partie subconsciente
dont nous ne pouvons décrire le fonctionnement.

L'évolution d'une situation (d'un état) physique ne peut aboutir qu'à une autre
situation (état) physique.

Comme toutes les situations physiques sont délimitées par notre Univers (dont
l'espace-temps comprend, par définition, tout ce qui existe ou a existé), aucune
situation de notre Univers ne peut avoir une conséquence externe à l'Univers,
aucune ne peut être causée par quelque chose d'extérieur à l'Univers.
Nous pouvons cependant voir dans nos télescopes la lumière d'astres qui l'ont
émise il y a si longtemps que l'expansion de l'Univers les situe aujourd'hui audelà de la limite de ce qui est observable [313].

L'esprit humain peut imaginer un franchissement des frontières de l'Univers,
mais ce sera un calcul cosmologique ou une pure spéculation.

Même si un jour une théorie sur d'autres Univers affirme des choses vérifiables
dans le nôtre, elle ne prouve pas que ces univers existent, car cette existence ne
peut être ni vérifiée ni infirmée expérimentalement.
Un postulat est une abstraction pure, une base pour construire nos représentations
mentales du monde, elles-mêmes des abstractions. Le principe d'homogénéité
interdit de déduire un phénomène, une existence physique d'objet ou un état
physique d'une abstraction ; une telle déduction doit demeurer une hypothèse,
valable seulement dans la mesure où cette abstraction modélise la réalité avec une
précision suffisante, et seulement tant que la constatation d'une erreur ou
imprécision n'amène pas à remettre le modèle en cause. Violer ce principe conduit à
des raisonnements faux, comme :

Les preuves cosmologiques de l'existence de Dieu ;

Une décision par l'Eglise catholique de considérer comme miraculeuse (d'origine
divine) une guérison jugée inexplicable ou impossible dans l'état actuel de nos
connaissances ;

Déduire de la conception d'une essence ("Idée" de Platon, "chose en soi" de
Kant, description complète, cahier des charges) l'existence d'un objet physique,
d'une situation ou d'un phénomène : une essence n'est cause de rien de concret.
Avoir conçu une essence ne prouve même pas la possibilité que son objet
94
existe, tant l'imagination humaine est féconde. Une telle possibilité, comme
l'existence elle-même, n'est envisageable qu'en tant qu'hypothèse, ou dans un
domaine de connaissances abstraites comme les mathématiques. En somme,
une essence n'est pas une preuve. En mathématiques, toutefois, elle peut être
une définition : un être mathématique peut être défini par ses propriétés, si
celles-ci ne contredisent aucun théorème établi.
Aristote s'était déjà aperçu de l'absence de relation de causalité entre une
abstraction et une réalité matérielle [201].
Avant de poursuivre notre propos sur le déterminisme, nous avons besoin de
préciser le principe d'homogénéité.
3.1.4.3
Domaine de vérité d'une science et principe d'homogénéité
Un intérêt majeur de la règle du respect de l'homogénéité est la délimitation du
domaine de vérité d'une science : une affirmation n'a de sens qu'à l'intérieur d'un
domaine homogène ; on ne peut en vérifier la véracité que dans un tel domaine.
Selon [16-b] page 9 :

Husserl écrit : "L'empire de la vérité s'articule objectivement en domaines ; c'est
d'après ces unités objectives que les recherches doivent s'orienter et se grouper
en sciences."

Kant écrit : "On n'étend pas, mais on défigure les sciences quand on fait
chevaucher leurs frontières." Cette affirmation provient du caractère axiomatique
[67] des sciences exactes, dont chacune a des axiomes et règles de déduction
propres qu'on ne doit pas mélanger avec ceux d'une autre science.
La connaissance scientifique n'a commencé à progresser que lorsque l'humanité a
réussi à la séparer des considérations philosophiques, morales et religieuses [212].
3.1.5
Le déterminisme scientifique
Pour comprendre et prévoir, la pensée rationnelle a besoin d'ajouter au postulat de
causalité ci-dessus une règle de stabilité dans le temps et l'espace, c'est-à-dire de
reproductibilité.
3.1.5.1
Règle de stabilité
Règle : "Les mêmes causes produisent toujours les mêmes effets" (reproductibilité).
Les lois physiques dont l'application est déclenchée par une cause donnée sont
stables, elles sont les mêmes en tous lieux et à tout instant.
Conséquence de la stabilité : une situation stable n'a jamais évolué et n'évoluera
jamais ! Pour qu'il y ait une évolution à partir d'un instant t il faut élargir la définition
du système observé. En fait, l'écoulement du temps ne se manifeste que lorsque
quelque chose évolue ; si rien n'évolue tout se passe comme si le temps s'arrêtait. La
règle de stabilité n'a rien d'anodin : elle a pour conséquence la première loi du
mouvement de Newton, la loi d'inertie :
"Un corps immobile ou se déplaçant en ligne droite à vitesse constante restera
immobile ou gardera le même vecteur vitesse tant qu'une force n'agit pas sur
lui."
95
Au point de vue déterminisme, le mouvement rectiligne uniforme d'un corps est
une situation stable, qui ne changera pas tant qu'une force n'agira pas sur le
corps ; et une situation stable est sa propre cause et sa propre conséquence.
Grâce à la règle de stabilité on peut induire une loi physique de la nature d'un
ensemble d'enchaînements cause-conséquence constatés : si j'ai vu plusieurs fois le
même enchaînement, je postule que la même cause (la même situation, le même
état d'un système) produit toujours la même conséquence (la même évolution dans
le temps). On peut alors regrouper le postulat de causalité et la règle de stabilité en
un principe qui régit les lois de la nature décrivant une évolution dans le temps, le
postulat de déterminisme scientifique énoncé ci-dessous.
3.1.5.2
Importance de la vitesse et de l'amplitude d'une évolution
En pratique, la stabilité d'une loi physique d'évolution est soumise à des incertitudes,
comme une variable physique : ses paramètres sont entachés d'erreurs.

Une loi d'évolution décrit celle-ci à partir d'une situation initiale en appliquant des
règles de calcul. Mais une variable des données initiales, des règles de calcul et
de l'heure de l'instant initial n'est connue avec une précision parfaite que lorsque
c'est une unité internationale, définie arbitrairement, comme la vitesse de la
lumière c ; toutes les autres variables sont entachées d'erreurs : la prédiction
d'une évolution est donc, en pratique, entachée d'erreurs.

Un système est stable lorsque ses variations sont trop petites et/ou trop lentes
pour être observées. Un système qui paraît stable en ce moment a peut-être
évolué de manière perceptible dans le passé, mais de plus en plus lentement, ou
avec de moins en moins d'amplitude jusqu'à paraître stable en ce moment ;
et peut-être évoluera-t-il de plus en plus vite ou de plus en plus fort à l'avenir.
Exemple
Au début d'un cours d'astronomie on considère seulement la direction dans laquelle
se trouve une étoile, en ignorant sa distance et son éventuel mouvement par rapport
à la Terre. Les étoiles sont alors censées se trouver sur une sphère appelée
« sphère des fixes », modèle cosmographique qui postule la fixité de la direction de
visée de chaque étoile. En effet, à l'échelle de quelques siècles et à fortiori à celle
d'une vie humaine, les étoiles paraissent immobiles sur la sphère des fixes : leurs
directions et leurs positions relatives ne changent pas.
En fait, l'immobilité apparente des étoiles n'existe que si on mesure leurs directions
angulaires avec une précision modeste, notamment lorsqu'un homme compare un
ciel de sa jeunesse, vu à l'œil nu, avec un ciel de son âge mur. Dès qu'on effectue
des mesures de vitesse précises par effet Doppler (déplacement des raies
spectrales) on s'aperçoit que les étoiles bougent par rapport à la Terre : les positions
stables connues ont été complétées par des lois mathématiques de déplacement.
Conclusions

La vitesse mesurée d'évolution d'un phénomène n'a pas de raison d'être
constante. Une évolution lente aujourd'hui peut avoir été beaucoup plus rapide
dans le passé. Exemples :
96


L'expansion de l'Univers observable, dont le rayon augmente aujourd'hui à
la vitesse de la lumière, c, a été des milliards de fois plus rapide peu après
la naissance de l'Univers, pendant une phase appelée inflation [313]. Cette
expansion hyperrapide n'a duré qu'un très court instant, moins de 10-35 s.
Considérons un système physique fermé (n'échangeant rien avec l'extérieur)
tel qu'un tube allongé plein d'air. Supposons qu'au début de l'expérience l'air
de la partie gauche du tube a été chauffé, pendant que l'air de la partie
droite restait froid. Lorsqu'on arrête le chauffage et qu'on laisse l'air du tube
fermé évoluer sans intervention extérieure, sa température tend vers une
température limite, uniforme, en variant de plus en plus lentement.
La température stable constatée au bout d'un temps assez long pour que
notre thermomètre de mesure ne bouge plus est le résultat d'une évolution
convergente, pas le résultat d'une absence d'évolution. Un observateur qui
ne voit qu'un thermomètre qui ne bouge pas aurait tort d'en conclure que l'air
du tube a toujours été à la même température.
En résumé : compte tenu de l'imprécision inévitable de toute mesure physique,
on ne peut conclure d'un état actuel de stabilité ni qu'il n'a jamais évolué, ni qu'il
n'évoluera jamais, ni depuis combien de temps il n'évolue pas, ni qu'il n'évoluera
pas beaucoup plus vite dans l'avenir…
Exemple : si on photographie le balancier d'un pendule oscillant avec un temps
d'exposition de un dixième de seconde lorsque ce balancier est au sommet de
sa course, on aura une photo nette car il bouge lentement ; mais une photo de
même temps d'exposition au point le plus bas du balancier sera « bougée ».
Du point de vue philosophique, on doit tenir compte de la possibilité qu'une évolution
dans le temps ait une vitesse et une amplitude variables, c'est-à-dire décrites par des
fonctions non linéaires. La vitesse et l'amplitude d'évolution d'un phénomène, trop
petites pour être mesurables à un instant donné, ne l'ont pas nécessairement
toujours été, et ne le resteront pas nécessairement toujours à l'avenir.
3.1.5.3
Définition du déterminisme scientifique
Définition : le déterminisme scientifique est un postulat qui régit l'évolution dans le
temps d'une situation sous l'effet des lois de la nature, conformément au postulat de
causalité et à la règle de stabilité.
Par rapport au déterminisme philosophique, le déterminisme scientifique :

Prédit qu'une situation évoluera certainement sous l'action d'une loi naturelle,
pas qu'on en connaîtra la valeur future des variables d'état ;

N'affirme pas la possibilité de reconstituer mentalement le passé.
Le déterminisme scientifique est basé sur les lois vérifiées de la physique. Il n'est
pas, comme le déterminisme philosophique, basé sur la foi issue des Lumières [47]
en une Science qui permettra un jour de tout comprendre et prévoir.
Remarque importante
Le déterminisme scientifique affirme donc que la nature déclenche automatiquement
et instantanément une évolution lorsque ses conditions sont réunies ; les
97
conséquences de ces conditions sont le déclenchement et le déroulement d'une
évolution bien définie, pas une situation à un instant futur (qui est une représentation,
une abstraction humaine).
Le déterminisme scientifique n'affirme rien sur la prédictibilité des valeurs des
variables d'état d'un système aux divers instants futurs, ni sur l'unicité de valeur
d'une variable à un instant donné. Nous verrons que la prévision de la valeur d'une
variable d'un système physique à un instant donné est parfois impossible ou
imprécise, et parfois que cette valeur n'est même pas unique.
3.1.5.3.1
Déterminisme des évolutions régies par des équations différentielles
Dans de nombreux phénomènes physiques, l'évolution d'un système est modélisée
par une équation différentielle ou un système d'équations différentielles comprenant
des dérivations par rapport au temps. Lorsque c'est le cas, la connaissance des
conditions initiales permet de déterminer toute l'évolution ultérieure de ses variables,
soit parce qu'on peut exprimer celles-ci comme fonctions du temps, soit parce qu'on
peut calculer les valeurs successives de ces variables de proche en proche.
L'évolution du système est alors déterministe au sens scientifique traditionnel et on
peut même parler de déterminisme mathématique.
L'existence d'une description du mouvement par équation(s) différentielle(s) implique
qu'à tout instant t, le mouvement pendant l'intervalle de temps infiniment petit dt
suivant ne dépend que des conditions à cet instant-là, et on peut le calculer sans
tenir compte des conditions initiales ou des évolutions qui précèdent l'instant t. La
position et la vitesse à tous les instants qui suivent t ne dépendent que des
conditions à l'instant t. Le mouvement global, depuis un instant quelconque à partir
de t = 0, résulte de l'application répétée du principe précédent : la chaîne de
causalité est continue. Le futur dépend du seul présent, pas du passé.
Exemples souvent cités : les équations différentielles de la dynamique (2 ème loi
de Newton [110]) et de Schrödinger.
3.1.5.3.2
Déterminisme des formules, algorithmes et logiciels
Un cas particulier d'évolution est la traduction instantanée d'un concept en un autre,
par application d'une formule ou d'un algorithme. Exemple : la loi d'attraction
universelle de Newton entre deux points matériels de masses M et M' distants de d
s'exprime par la formule F = GMM'/d², où G est la constate universelle de gravitation,
G = 6.67 .10-11 Nm²/kg² [110]. Connaissant M, M' et d, on en déduit immédiatement
la force d'attraction F ; cette force existe sans délai d'évolution, dès qu'existent M, M'
et d. Le déterminisme de la nature régit donc, en plus de ses lois d'évolution, des lois
et méthodes de calcul traduisant des données initiales en un résultat final qui est leur
conséquence, sans délai d'évolution.
Un algorithme de calcul est écrit dans le cadre d'une axiomatique [67] et un
programme est écrit dans un langage informatique. Chacune des règles de
déduction de l'axiomatique et chacune des instructions du programme respecte les
conditions du postulat de causalité et de la règle de stabilité : l'algorithme et le
programme étant donc des suites de processus déterministes, sont globalement
déterministes.
98
Pourtant, leur résultat n'est pas prédictible à la seule vue de leur texte. En particulier,
on ne peut savoir s'ils produisent les résultats attendus qu'en déroulant l'algorithme
par la pensée et en exécutant le programme.
Théorème : il n'existe pas d'algorithme général permettant de savoir si un
programme donné s'arrête (donc fournit son résultat) ou non.
On ne peut pas, non plus, savoir si la progression vers ce résultat est rapide ou non :
un programme peut se mettre à boucler, repassant indéfiniment sur la même
séquence d'instructions, et un algorithme peut converger très lentement ou même ne
pas converger du tout ; si l'exécution d'un programme doit durer 100 ans aucun
homme ne l'attendra.
Il existe donc des processus déterministes :

dont le résultat est imprévisible avant leur déroulement ;

dont le déroulement peut durer si longtemps qu'on ne peut se permettre de
l'attendre pour avoir le résultat.
Nous voyons donc, sur cet exemple, que le déterminisme d'un processus n'entraîne
pas nécessairement la prédictibilité de son résultat. Approfondissons ce problème.
3.1.5.4
Déterminisme scientifique et obstacles à la prédiction
Résultat d'une évolution physique
Le résultat à un instant donné de l'évolution physique d'un système est un état
caractérisé par les valeurs d'un certain nombre de variables. Chacune de ces
variables a un ensemble de définition et (souvent) une unité de mesure. Exemples
d'ensembles de définition :

Une longueur est un nombre réel positif de mètres ;

Une énergie électromagnétique échangée à l'aide de photons de fréquence
 est un nombre de joules multiple entier de h, où h est la constante de
Planck ;

En Mécanique quantique, une mesure ne peut donner comme résultat qu'une
valeur propre [278] de l'observable [30] du dispositif de mesure.
Prédire un résultat d'évolution d'une variable consiste, en physique macroscopique, à
prédire quel élément de son ensemble de définition résultera de l'application de la loi
d'évolution, c'est-à-dire quel élément de cet ensemble elle choisira. En physique
atomique, la prédiction utilise la Mécanique quantique et a pour résultat un ensemble
connu de valeurs, munies de probabilités d'apparition s'il y a décohérence en fin
d'expérience.
Déterminisme et prédictibilité
Dans le cas général, le déterminisme d'une loi de la nature n'entraîne ni la
prédictibilité de ses résultats, ni leur précision. Voici pourquoi.
Dans les définitions du postulat de causalité et du déterminisme scientifique nous
avons renoncé à prédire un résultat d'évolution. Mais comme nous savons qu'une
99
cause déclenche l'application d'une loi de la nature, le problème de prédire un
résultat d'évolution devient celui de prédire le résultat de l'application d'une telle loi.
Remarquons d'abord que si la nature connaît des situations-causes et les lois qu'elle
applique automatiquement à chacune, elle ne connaît pas la notion de résultat,
notion et préoccupation humaines. Cette remarque nous permet d'éliminer tout de
suite une cause d'impossibilité de prévoir indépendante de la nature : l'intervention
du surnaturel. Il est clair que si nous admettons la possibilité qu'une intervention
surnaturelle déclenche, empêche ou modifie le déroulement d'une évolution
naturelle, nous renonçons en même temps à prévoir son résultat.
Nous postulerons donc le matérialisme. En outre, aucune intervention provenant
d'un éventuel extérieur de l'Univers n'est possible du fait de la Relativité Générale
[328]. Nous exclurons aussi toute intervention provenant de l'intérieur mais
n'obéissant à aucune loi de la nature, en nous réservant de préciser plus bas la
notion de hasard et sa portée. Cette validation par l'expérience, la falsifiabilité [203]
et l'absence de preuve de fausseté ou de contradiction distinguent une théorie
scientifique d'une explication magique, surnaturelle ou fantaisiste.
Déterminisme statistique
Avec la définition ci-dessus du déterminisme scientifique, on ne peut pas opposer les
adjectifs déterministe et stochastique [31] : nous verrons, par exemple, que la loi
d'évolution de Mécanique quantique appelée décohérence produit des résultats
probabilistes - donc qualifiés habituellement de stochastiques. Cette loi sera dite
déterministe parce qu'elle respecte le principe de causalité et la règle de stabilité,
mais comme elle produit des résultats multiples distribués selon une loi de probabilité
il s'agira d'un déterminisme statistique.
Voir en fin de texte la table résumant les cas d'imprédictibilité.
Voici quatre types de raisons qui empêchent de prédire le résultat d'une loi
déterministe d'évolution : l'ignorance, l'imprécision, la complexité et le hasard.
3.1.5.4.1
L'ignorance
Pour prédire le résultat d'une loi il faut d'abord la connaître. Il y a beaucoup de
phénomènes que la science ne sait ni expliquer, ni même décrire ; exemple : le
déclenchement et l'enchaînement des pensées dans le subconscient. Et malgré
Internet qui, de nos jours, permet de trouver beaucoup de renseignements et de
poser des questions à beaucoup de gens, une personne donnée a nécessairement
des lacunes. De toute manière, la méconnaissance d'un phénomène ne nous
autorise pas à l'attribuer au hasard, c'est-à-dire à affirmer que la nature fait n'importe
quoi, qu'il y a évolutions où elle ne suit aucune loi, mais improvise. Nous
supposerons donc ci-dessous que toute tentative de prédiction est faite dans un
contexte où les lois d'évolution sont connues et stables.
3.1.5.4.2
L'imprécision
Le postulat de causalité et le déterminisme scientifique ne promettent pas la
prédictibilité d'un résultat, ni sa précision lorsqu'on a pu le prévoir ; pourtant la
précision est une préoccupation humaine. Voici des cas où la précision du résultat
(calculé ou mesuré) de l'application d'une loi d'évolution peut être jugée insuffisante
par l'homme.
100
Imprécision des paramètres et hypothèses simplificatrices d'une loi d'évolution
Une loi d'évolution qui a une formulation mathématique a des paramètres. Si ceux-ci
sont connus avec une précision insuffisante, le résultat calculé sera lui-même
entaché d'imprécision. C'est le cas notamment lorsqu'une loi d'évolution fait des
hypothèses simplificatrices.
Exemple d'approximation : la dynamique d'un pendule simple est décrite par une
équation différentielle non linéaire. Pour simplifier la résolution de cette équation,
on recourt à « l'approximation des petites oscillations », qui assimile un sinus à
son angle en radians. Cette simplification entraîne des erreurs de prédiction du
mouvement qui croissent avec l'angle considéré.
Imprécision ou non-convergence des calculs dans un délai acceptable
Si le calcul d'une formule ou d'une solution d'équation est insuffisamment précis, le
résultat peut être lui-même imprécis. Il arrive aussi que l'algorithme du modèle
mathématique du phénomène ne puisse fournir son résultat, par exemple parce qu'il
converge trop lentement. Il peut enfin arriver que le modèle mathématique d'un
processus déterministe ait un cas où le calcul de certaines évolutions est impossible,
le livre en cite un concernant une propagation d'onde.
Sensibilité du modèle d'évolution aux conditions initiales
Il peut arriver qu'une variation minime, physiquement non maîtrisable, de ses
données initiales, produise une variation considérable et imprévisible du résultat d'un
phénomène dont la loi d'évolution a pourtant une forme précise et une évolution
calculable.

C'est le cas, par exemple, pour la direction dans laquelle va tomber un crayon
posé verticalement sur sa pointe et qu'on vient de lâcher.
(Heureusement, le principe d'incertitude de Heisenberg est censé ne s'appliquer
qu'à un système à l'échelle atomique, donc infiniment plus petit qu'un crayon.
Car s'il s'appliquait ici, le crayon tomberait dans toutes les directions à la fois en
superposition, puisqu'il ne peut être immobile et que son état initial a une
symétrie de révolution par rapport à la verticale !)

C'est le cas, aussi, des « systèmes dissipatifs à évolution apériodique sur un
attracteur étrange dans un espace des phases (définition) ayant au moins 3
dimensions » (explication).
Il y a là un phénomène mathématique d'amplification d'effet : l'évolution parfaitement
déterministe, précise et calculable à partir d'un ensemble d'états initiaux
extrêmement proches, peut aboutir, après un certain temps, à des états finaux très
différents. Ce type d'évolution est appelé « chaos déterministe ». On peut, dans ce
cas-là, démontrer l'impossibilité de prévoir avec une précision suffisante l'évolution et
son état final après un temps donné : il ne peut exister d'algorithme de calcul
prévisionnel de cet état final qui soit peu sensible à une petite variation des données
initiales. Il ne peut même pas exister d'intervalle statistique de confiance encadrant
une variable de l'état final. Le déterminisme n'est pas en cause en tant que principe,
mais une prédiction précise d'état final demande une précision infinie dans la
connaissance et la reproductibilité de l'état initial et des paramètres d'évolution,
précision physiquement inaccessible.
101
Cette impossibilité traduit un refus de la nature de satisfaire notre désir de prévoir
avec précision l'évolution de certains systèmes.
Exemples. Ce phénomène se produit dans certains écoulements turbulents et
dans l'évolution génétique des espèces, avec apparition de solutions regroupées
autour de points particuliers de l'espace des phases appelés « attracteurs
étranges ». En pratique, cette amplification d'effet réduit beaucoup l'horizon de
prévisibilité.
Instabilité dans le temps d'une loi d'évolution
Même s'ils sont bien connus à un instant donné, certains paramètres d'une loi
d'évolution peuvent être instables d'une situation à une autre, entraînant
l'impossibilité de prédire une évolution trop longtemps à l'avance. C'est le cas, par
exemple, pour une loi d'évolution qui bifurque (se transforme en deux autres lois) du
fait d'un paramètre qui franchit ou non une valeur critique à cause d'un autre
phénomène. Voir aussi [281].
Imprécision due à la Mécanique quantique, outil mathématique de la physique
quantique
En physique quantique (physique de l'échelle atomique [325]), la précision sur l'état
d'un système est limitée par la représentation par fonctions d'ondes de probabilité de
la Mécanique quantique. Exemples :

La position et la vitesse d'un corpuscule en mouvement dans un champ de force
électromagnétique ne peuvent être déterminées avec une incertitude meilleure
que la moitié de la largeur du paquet d'ondes de probabilité qui l'accompagne.
Quelle que soit la petitesse du temps de pose d'une photographie instantanée
(théorique) du corpuscule, celui-ci apparaîtra toujours flou.
Pire, même : plus la détermination de la position à un instant donné est précise,
plus celle de la vitesse est imprécise, et réciproquement : c'est le « principe
d'incertitude de Heisenberg ».

Un résultat de physique quantique [325] est inséparable des conditions
expérimentales. La Mécanique quantique prédit la fréquence statistique
d'apparition de chaque valeur qu'on peut mesurer dans une expérience donnée,
dont la reproductibilité des résultats n'est que statistique. En physique quantique,
le déterminisme n'est que statistique, il ne permet de prédire que des résultats
distribués selon une loi statistique, pas un résultat unique précis ; il contient donc
une part de hasard.

En Mécanique quantique, non seulement toute mesure perturbe le système
mesuré, mais en l'absence de mesure ou avant la mesure la variable mesurée
n'a aucune probabilité d'avoir quelque valeur que ce soit : c'est la mesure qui
« crée » la valeur d'une variable, et en son absence cette valeur n'existe pas.
Il y a là une énorme différence avec la physique macroscopique, où la position
d'un corps existe qu'on la mesure ou non, et où une mesure ne perturbe pas
nécessairement l'objet mesuré.

L'évolution qu'est l'établissement ou la rupture d'une liaison chimique entre
atomes, molécules, ou atome et molécule est régie par l'équation de Schrödinger
et le principe d'exclusion de Pauli. Cette évolution se fait vers la structure la plus
stable, celle de moindre énergie potentielle, comme le veut la thermodynamique.
102
La Mécanique quantique montre qu'il y a souvent plusieurs résultats d'évolution
possibles, chacun avec sa probabilité.
Cette possibilité qu'une liaison chimique s'établisse ou se rompe avec une
certaine probabilité a des conséquences importantes en biologie moléculaire, où
elle peut être cause d'anomalies génétiques ou de variations d'expression de
gènes.
On a montré expérimentalement dans les années 1920 qu'en favorisant les
perturbations accidentelles de l'énergie de liaison moléculaire du génome de
l'orge au moyen de rayons X on provoquait de multiples mutations
artificielles. On a ainsi obtenu des plantes de couleur blanche, jaune pâle ou
à bandes de couleurs alternées. Depuis cette date, des mutations
artificielles sont déclenchées dans de nombreux pays pour obtenir des
espèces nouvelles de plantes ayant des propriétés intéressantes. On a ainsi
obtenu des espèces plus résistantes et d'autres donnant de meilleurs
rendements.

Le refus de précision et de stabilité de la nature peut se manifester par des
fluctuations quantiques. Exemple : en un point de l'espace vide à l'intérieur d'un
atome ou même entre galaxies, l'énergie peut brusquement varier sans cause
autre que le fait que la nature refuse qu'elle soit définie avec une valeur précise,
stable en l'absence de perturbations. Cette variation d'énergie ΔE peut être
d'autant plus grande que sa durée Δt sera brève. En moyenne, toutefois,
l'énergie au point de fluctuation reste constante : si la nature a "emprunté" une
énergie ΔE au vide environnant, elle la restitue en totalité environ Δt secondes
après. L'énergie est empruntée à l'énergie potentielle du champ de gravitation.
Ce phénomène d'instabilité viole la règle de stabilité et ne permet pas de définir
des conditions de causalité ! Il survient brusquement, de manière imprévisible,
sans cause identifiable. C'est une instabilité dans le temps, traduisant
l'impossibilité de définir l'énergie en un point de l'espace vide avec une
incertitude sur l'énergie et un intervalle de temps tous deux arbitraires. Du point
de vue prévisibilité, on ne peut prévoir ni où une fluctuation se produira, ni
quand, ni avec quelle variation d'énergie ΔE.
Ce phénomène n'a rien de négligeable : on lui attribue, peu après le début de
l'Univers, des variations de densité d'énergie à l'origine de la matière des
galaxies ! A l'échelle alors extrêmement petite de l'Univers, ces variations
d'énergie étaient si colossales, leur perturbation de l'espace-temps si
considérable, que les équations de la Relativité Générale ne pouvaient
s'appliquer. (Voir "Distance, temps, densité et masse de Planck")
Conclusion philosophique : toute variation naturelle n'est pas une évolution et
n'est pas nécessairement déterministe ; il y a des cas d'instabilité.
Imprécision par évolutions simultanées à partir d'un même état initial - Décohérence
A l'échelle atomique, la nature permet des superpositions (combinaisons linéaires)
de solutions d'équation d'état décrivant l'évolution d'un système dans le temps et
l'espace.

C'est ainsi qu'un atome peut parcourir plusieurs trajectoires à la fois, produisant
des franges d'interférence avec lui-même lorsqu'il passe à travers deux fentes
parallèles distantes de milliers de diamètres atomiques.
103

C'est ainsi qu'une molécule peut être dans plusieurs états (position, énergie…) à
la fois.
Exemple : la molécule d'ammoniac NH3 a une structure en forme de tétraèdre,
où le sommet azote N peut être « au-dessus » ou « au-dessous » du plan des 3
atomes d'hydrogène. A un instant donné, la forme de la molécule peut être
« plutôt au-dessus et un peu au-dessous » ou le contraire, du fait de l'effet tunnel
(effet statistique de présence au-delà d'une barrière de potentiel sans cause
physique de type force entraînant un quelconque déplacement). Les deux
formes, « au-dessus » et « au-dessous » de la molécule existent alors
simultanément : on dit qu'elles sont « en superposition », « cohérentes ».
Lorsque le temps passe, la molécule peut évoluer progressivement d'une forme
à l'autre par effet tunnel à une certaine fréquence, dite d'inversion. Lorsqu'un
dispositif macroscopique détermine cette forme à l'instant t, il la trouve dans un
seul des états, devenu stable, arrêtant alors l'oscillation d'inversion : on dit alors
que le dispositif a détruit la cohérence de la superposition, qu'il y a eu
« décohérence ». Si on refait l'expérience un grand nombre de fois, on trouvera
statistiquement 50% de molécules « au-dessus » et 50% de molécules « audessous ».
Lorsqu'une expérience détermine la forme de la molécule NH 3, la nature choisit
au hasard celui des deux états symétriques qu'elle révélera à l'homme. Notons
que dans ce cas l'état révélé n'est pas quelconque, c'est un élément d'un
ensemble parfaitement prédéfini de solutions appelé spectre des valeurs propres
[278] du dispositif de mesure : le hasard naturel est alors limité au choix d'une
des valeurs du spectre, valeurs toutes connues avec précision avant chaque
choix. Dans le cas de la molécule d'ammoniac précédente, la nature choisit entre
2 solutions symétriques de même forme géométrique.
Ce phénomène est général en physique quantique [325] : lorsqu'une expérience
mesure une grandeur qui a plusieurs valeurs superposées, il en choisit une sans
que l'expérimentateur puisse prédire laquelle. Toutefois, les valeurs possibles
parmi lesquelles l'expérience choisit appartiennent à un ensemble connu à
l'avance : l'ensemble des valeurs propres de l'appareil de mesure ; en répétant
l'expérience un grand nombre de fois, les diverses valeurs propres "sortiront"
avec une probabilité (ou une densité de probabilité) connue à l'avance. (Voir
postulats 3 et 4 de la Mécanique quantique.) Du point de vue déterminisme, le
hasard se limite au choix d'une valeur appartenant à un ensemble prédéterminé
et affectée d'une probabilité (ou une densité de probabilité) également
prédéterminée. On peut appeler hasard ce déterminisme de l'échelle atomique,
mais comme les résultats finaux ne sont pas quelconques puisqu'ils respectent
une distribution statistique, je préfère l'appeler déterminisme statistique, une
forme du déterminisme étendu.

Le refus de la nature de satisfaire le besoin de l'homme de distinguer deux
photons à trajectoires différentes atteint un sommet avec le phénomène de nonséparabilité. Dans une expérience [10], deux photons qui ont la propriété
d'ensemble d'avoir des polarisations en sens opposé (photons dits intriqués ou
corrélés) restent un ensemble indivisible du fait de cette propriété même quand
ils se sont éloignés l'un de l'autre de 144 km : si on mesure la polarisation de l'un
– ce qui la change – la polarisation de l'autre change aussi aussitôt, la
104
conséquence se propageant de l'un à l'autre à vitesse infinie puisqu'ils ne font
qu'un dans l'ensemble de départ, qui conserve son unité tout en se déformant.
En somme, toute mesure faite au point A sur une particule peut instantanément
influencer une mesure en un point B, même très distant, sur une autre particule
si les deux particules sont corrélées ; et après la mesure, l'interaction qui a
corrélé les particules a disparu de manière irréversible.
Imprécision par étalement d'un paquet d'ondes
Les ondes de probabilité accompagnant le déplacement d'un corpuscule se
rattrapent et se chevauchent, et le paquet d'ondes s'étale tout en se déplaçant. Cet
étalement fait croître progressivement l'imprécision sur la position du corpuscule.
En somme, à l'échelle atomique, beaucoup d'exigences humaines concernant la
prédiction d'un résultat, son unicité, sa précision ou sa stabilité sont refusées par la
nature.
Incertitude relativiste sur la relation de causalité entre deux événements
Il y a une propriété de l'espace-temps liée à la vitesse de la lumière, propriété qui fait
réfléchir à la définition même de la causalité qui fait passer d'un événement à un
autre. Dans certains cas précis, deux événements A et B peuvent être vus par
certains observateurs dans l'ordre A puis B, et par d'autres observateurs dans l'ordre
B puis A ! Les premiers auront connaissance de A avant B et en tireront des
prédictions différentes des seconds, qui verront apparaître B avant A.
3.1.5.4.3
La complexité
Evolution d'une situation régie par une ou plusieurs loi(s) déterministes
L'effet global d'un grand nombre de phénomènes déterministes peut être
imprévisible, même si chacun est simple et à résultat prévisible.
Exemple : considérons une petite enceinte fermée qui contient un nombre
immense de molécules identiques de liquide ou de gaz. Le seul fait que ces
molécules aient une température supérieure au zéro absolu fait qu'elles s'agitent
sans cesse, l'énergie cinétique associée à leur vitesse provenant de la température.
Cette agitation, appelée mouvement brownien, les fait rebondir les unes sur les
autres et sur les parois, conformément à des lois des chocs élastiques parfaitement
connues et déterministes, sans intervention du hasard. Mais il est impossible de
connaître la position et la vitesse à l'instant t d'une molécule donnée, car :

Elle a subi trop de rebonds contre d'autres molécules en mouvement et contre
les parois de l'enceinte pour que les calculs soient à la portée d'un ordinateur,
même très puissant ;

A l'échelle atomique, chaque rebond de molécule est affecté par sa forme
irrégulière, la rugosité locale de la paroi, et l'imprécision sur la position, la
direction et la vitesse d'un choc due à la largeur du paquet d'ondes
accompagnant chaque molécule. La loi des chocs élastiques est donc difficile à
appliquer avec précision, les conditions initiales de chaque choc étant entachées
d'erreurs non négligeables et aucune approche statistique n'étant possible.
105
Cette impossibilité de connaître le mouvement précis d'une molécule donnée est très
générale : la combinaison d'un grand nombre de phénomènes déterministes à
évolution individuelle prévisible produit une évolution imprévisible, que ces
phénomènes soient ou non du même type. Par combinaison il faut entendre ici :

soit une succession de phénomènes de même type comme les chocs élastiques
d'une molécule donnée ;

soit la simultanéité de phénomènes déterministes différents qui agissent
indépendamment ou interagissent pour produire un effet global ;

soit l'instabilité d'un phénomène qui change de loi d'évolution selon un paramètre
critique soumis à un autre phénomène d'évolution lors d'une bifurcation.
En résumé, la complexité d'un phénomène à composantes déterministes produit en
général une évolution imprévisible, et encore plus imprévisible si on prend en compte
les imprécisions dues à la Mécanique quantique.
Il faut pourtant se garder d'attribuer au hasard une évolution qui n'est
imprévisible que parce que la complexité du phénomène d'origine rend trop
difficile la prédiction de son résultat par calcul ou raisonnement. Nous verrons
que ce hasard caractérise un choix d'élément de l'ensemble (déterministe) des
résultats-valeurs propres [278] possibles d'une évolution, alors que
l'imprévisibilité caractérise une inexistence d'algorithme à résultats utilisables.
L'imprévisibilité par excès de complexité, qui n'existe pas en théorie dans la nature
dont les lois d'évolution sont déterministes, sévit hélas en pratique. Elle n'affecte pas
la nature, qui jamais n'hésite ou ne prévoit l'avenir, mais elle empêche l'homme de
prédire ce qu'elle va faire. Et l'imprévisibilité est d'autant plus grande que le nombre
de phénomènes successifs ou simultanés est grand, que leur diversité est grande,
que leurs interactions sont nombreuses et que l'imprécision quantique intervient.
Les interactions entre phénomènes ont un effet sur leur déterminisme lui-même. Une
évolution dont le résultat impacte les conditions initiales d'une autre évolution joue
sur la reproductibilité de cette dernière, ce qui handicape encore plus la prédiction de
son résultat.
C'est pourquoi les phénomènes les plus complexes (ceux des êtres vivants, du
psychisme de l'homme et de sa société) ont beau ne comporter au niveau biologie
moléculaire que des évolutions physiques déterministes, leurs résultats sont en
général si imprévisibles que l'homme a l'impression que la nature fait n'importe quoi.
Enfin, ce qui se passe dans le subconscient est en général imprévisible.
Approche analytique ou approche holistique ?
La discussion précédente montre qu'il est souvent impossible de prévoir l'évolution
d'une situation complexe, même si tous les paramètres de cette évolution sont
déterministes, à partir d'une connaissance de toutes ses lois d'évolution et
d'interaction : cette approche analytique est en général vouée à l'échec.
On peut alors abandonner cette approche analytique au profit d'une approche plus
globale, holistique. Au lieu de tenter la synthèse d'un nombre immense de
106
phénomènes déterministes, on regroupera ceux-ci en « macro-phénomènes » dont
on étudiera le comportement.
Exemple 1 : au lieu de s'intéresser au comportement (sans intérêt !) de chacune
des milliards de molécules de gaz d'un récipient ou même d'une seule molécule
particulière, on s'intéresse à la température et à la pression qui règnent dans ce
récipient, variables macroscopiques rendant compte des propriétés d'ensemble
des molécules du récipient.
Exemple 2 : l'écoulement turbulent d'un fluide est trop complexe à étudier et
décrire en fonction des 4 paramètres mesurables que sont sa densité, sa
vitesse, sa viscosité cinématique et la longueur d'un obstacle. On utilise une
variable sans dimension unique qui en dépend, le nombre de Reynolds [293].
Exemple 3 : pour prévoir le chiffre d'affaires des ventes de vêtements d'hiver en
France pour une semaine donnée en fonction de la température ressentie, on
remplace l'interrogation de chaque acheteur potentiel (utopique !) par la
considération d'un « acheteur français moyen » dont on estime le nombre et les
températures des divers jours ouvrables par la moyenne hebdomadaire de leurs
valeurs minimales.
Les exemples 1 et 3 illustrent une première approche des problèmes complexes,
l'utilisation de modèles statistiques ; l'exemple 2 illustre une autre simplification, le
regroupement de paramètres.
Nous allons à présent évoquer brièvement la résolution de problèmes complexes ne
se résumant pas, comme les précédents, à prévoir par calcul un ensemble de
résultats d'évolution. Nous sortirons provisoirement du sujet des évolutions
déterministes pour raisonner le plus logiquement possible sur deux problèmes plus
généraux :

Prise de décision en vue d'un objectif dans une situation à la fois complexe et
incertaine ;

Conduite de projets complexes.
Limite des modèles statistiques
L'économiste Prix Nobel Von Hayek distinguait deux types de domaines complexes.

Dans les domaines « à complexité non organisée », les difficultés de
compréhension et de modélisation du comportement dues à la complexité
peuvent être contournées grâce à des variables statistiques.
C'est le cas, par exemple, en Mécanique statistique, où le comportement d'un
volume de gaz comportant un nombre immense de molécules animées de
mouvements d'agitation thermique (dits "browniens") peut être modélisé
statistiquement à l'aide de moyennes de variables comme la température
absolue, la pression et l'énergie d'une molécule. Les lois d'évolution de ces
variables statistiques sont déterministes. Exemple : la loi des gaz parfaits
pv=nRT.

Dans les domaines « à complexité organisée », les divers éléments d'un
système ont, en plus de propriétés individuelles et de fréquences d'apparition,
107
des interactions complexes et de types différents qu'on ne peut déterminer
quantitativement ou modéliser statistiquement.
C'est le cas, par exemple, des marchés d'une économie, où interviennent de
nombreux acteurs interdépendants, et où les hypothèses économiques
traditionnelles de rationalité des acteurs et de concurrence pure et parfaite sont
loin d'être satisfaites. Dans ce cas, on ne pourra jamais connaître
exhaustivement toutes les variables décrivant les divers agents économiques et
leurs interactions, et on ne pourra donc pas – même avec un ordinateur puissant
– modéliser le marché et prévoir son évolution avec précision [301].
C'est pourquoi (Hayek a reçu un Prix Nobel d'économie pour l'avoir démontré)
l'économie communiste de l'ex-URSS n'a jamais pu avoir une planification
centralisée de la production et de la consommation qui fonctionne. L'organisme
administratif de planification (le Gosplan) n'a jamais pu connaître les détails
précis de ce qu'il était vraiment possible de produire et de transporter, ce qui
était effectivement produit, où et à quelle date, etc. Ce qu'il a pu savoir était
toujours fragmentaire et très en retard sur la réalité. Il ne pouvait tenir compte
d'aléas climatiques locaux impactant l'agriculture ou les transports. Bref, il n'a
jamais pu disposer d'informations suffisantes pour piloter la production, le
transport et la consommation, d'où des pénuries et des gaspillages énormes.
En fait, la totalité des informations nécessaires pour déterminer l'évolution d'un
marché à partir d'une situation donnée n'est disponible que pour l'entité abstraite
qu'est le marché lui-même, pas pour un être humain ou une organisation
humaine. Et comme le comportement humain est souvent imprévisible parce que
soumis à des émotions irrationnelles et des anticipations, l'évolution d'un marché
à partir d'une situation donnée est non déterministe. Hayek a montré qu'on ne
pouvait alors établir que des lois qualitatives décrivant des relations entre
variables économiques et permettant de prévoir des tendances d'évolution ; en
aucun cas on ne pouvait prévoir le comportement d'un agent économique donné
ou la survenance d'un événement particulier comme la date d'éclatement d'une
bulle spéculative ou un effondrement boursier [301].
La rigueur des raisonnements
Il y a un autre obstacle à la prise de décisions et la conduite de projets dans le cas
des problèmes complexes : l'aptitude des hommes à raisonner correctement.
Exemple
Quelle politique adopter pour répondre à la préoccupation des Français qu'est la
peur d'une forte baisse de leur niveau de vie ? Les Français ont peur de perdre leur
emploi, de gagner moins et de payer plus d'impôts ; que doivent faire les politiciens
au pouvoir ?
Certains politiciens proposent une solution simple : le déficit budgétaire, solution dite
keynésienne. D'après eux, l'Etat n'a qu'à dépenser beaucoup plus, par exemple en
augmentant les salaires des fonctionnaires et les investissements en infrastructure et
recherche. Avec plus d'argent en circulation, les dépenses des consommateurs
augmenteront, ce qui générera du travail, donc protégera du chômage et produira
plus d'impôts, permettant ainsi de payer les dépenses supplémentaires.
108
C'est ce qu'a fait le gouvernement d'union de la gauche du Premier ministre Pierre
Mauroy en 1981-82, avec un résultat catastrophique : en quelques mois les caisses
pleines de l'Etat ont été vidées, le déficit du commerce extérieur a explosé, et la
France a dû adopter une politique de rigueur sévère avec Jacques Delors. Il y a eu
trois dévaluations successives, dont deux en moins d'un an ! La consommation des
Français avait tellement augmenté que la production intérieure n'a pas pu suivre, ce
qui a fait exploser les importations, d'où un déficit extérieur qu'il a fallu compenser
par des dévaluations du franc. Celles-ci, à leur tour, ont fait exploser les prix des
importations, donc les prix intérieurs. D'où une baisse du niveau de vie après
quelques mois d'euphorie, et une croissance sans précédent du chômage. Et comme
le déficit budgétaire exige en général des emprunts, la dette nationale augmente,
obligeant la génération suivante à la rembourser et à payer des intérêts.
Ce triste exemple historique illustre une vérité très générale : lorsqu'un problème (ici
la croissance économique) a beaucoup de variables interdépendantes, toute solution
simple agissant sur une seule variable est inefficace. L'approche simpliste est en
général préconisée par des politiciens esclaves de leur idéologie, incompétents ou
démagogues, notamment parce qu'elle est facile à expliquer aux électeurs.
Si le gouvernement Mauroy avait tenu compte des lois économiques enseignées
depuis des années, il aurait su que dans une économie ouverte à la concurrence
internationale comme celle de la France dans l'Europe, seule une relance
concertée avec les principaux partenaires commerciaux peut éviter les
déséquilibres des échanges, tous les pays se mettant ensemble à importer et
exporter davantage. La relance unilatérale de la France a fait exploser ses
importations mais pas ses exportations, d'où le déficit et les dévaluations.
Dans le cas du problème "Quelle politique adopter ?" il y a de nombreuses variables,
(sous-problèmes) en plus des dépenses de l'Etat. Exemples :

La politique des taux d'intérêt adaptée à un crédit qui favorise la consommation
et l'investissement sans générer d'inflation. Le choix d'un taux adapté est
fondamental, lorsque l'on sait qu'à tout instant le total des crédits des banques
françaises à notre économie est de l'ordre d'une année de PIB. Un manque de
crédits asphyxie l'activité ; un excès de crédit provoque de fortes hausses de
prix, par exemple dans l'immobilier, chaque fois que la capacité de production
est utilisée à plus de 80 %. C'est parce qu'une économie ne peut fonctionner
sans un énorme crédit que l'Etat et la Banque centrale européenne ne peuvent
se permettre de laisser les banques d'un pays manquer de liquidités [309].

La politique fiscale permettant de financer les investissements, les services
publics et les prestations sociales demandés par les citoyens sans handicaper la
compétitivité internationale de la France. En 2014, voilà 40 ans que l'Etat, les
collectivités territoriales et la Sécurité Sociale dépensent globalement plus que
ce que les impôts rapportent. Non seulement la France s'endette pour financer
son excédent de dépenses, mais ses « frais généraux » trop élevés handicapent
tellement la compétitivité de ses entreprises qu'elle perd chaque année des parts
de marché à l'exportation, ce qui détruit des emplois.

La législation du travail, qui doit favoriser les embauches et ne pas entraîner de
coûts de main d'œuvre exorbitants. Hélas, la législation française 2011, décrite
dans un Code du travail de 3391 pages croissant de 3 pages par jour, est
109
devenue si instable et si inextricable qu'elle constitue un handicap sérieux à
l'embauche, donc à l'activité économique, parce que les employeurs craignent
de ne pas pouvoir licencier.

L'organisation, les programmes et le fonctionnement de l'Education nationale,
dont les résultats médiocres classent chaque année la France parmi les pays les
qui forment le plus mal leurs futures générations. 150.000 jeunes sortent chaque
année de notre enseignement sans diplôme, formant des bataillons de
chômeurs, alors que des centaines de milliers d'emplois ne trouvent pas de
travailleurs qualifiés. Or le chômage et le manque de main d'œuvre coûtent cher
à l'économie…
Il y a ainsi un grand nombre de paramètres de l'activité économique, et ils sont
interdépendants. Exemple : le modèle de l'économie française Mesange de l'INSEE
a environ 500 équations [315]. Il faut donc jouer sur plusieurs d'entre eux en même
temps, voire sur la plupart, pour stimuler l'activité.
Que ce soit pour des raisons idéologiques ou pour d'autres raisons, l'homme a une
tendance naturelle à proposer comme solution d'un problème complexe la première
idée qui lui vient à l'esprit. Et si cette idée s'avère insuffisamment efficace, l'homme
persévère souvent dans son erreur en augmentant même quantitativement son
action.
C'est ainsi que, malgré le désastre de la politique de relance à tout va sans
concertation européenne de Pierre Mauroy en 1981-82, un autre politicien de
gauche, M. Chevènement, a proposé la même politique en 2002 en tant que
candidat à l'élection présidentielle, la même mais encore plus volontariste ! Avec
de l'incompétence, de l'idéologie ou de la démagogie, les mêmes problèmes
conduisent aux mêmes erreurs.
Conclusion : parce qu'il a plus de paramètres, moins bien connus et liés par plus
d'interactions, un problème complexe nécessite une approche rigoureuse,
débarrassée le plus possible d'à priori et de contraintes émotionnelles. En voici une.
Une méthode de résolution de problèmes complexes
Le principe d'une bonne approche a été décrit par René Descartes en 1637 dans le
"Discours de la méthode pour bien conduire sa raison". Il nous suffit de réfléchir à
ses préceptes [4] pour les présenter ici d'une manière adaptée à nos problèmes
actuels.
1er précepte
Ne considérer comme vrai que ce dont on est sûr, dit Descartes. La notion moderne
de vérité scientifique a été définie par Karl Popper, et les limites des raisonnements
déductifs (axiomatiques [67]) par Gödel et quelques autres logiciens du XXe siècle
[6]. En simplifiant beaucoup :

La vérité d'une affirmation n'est pas « son accord avec les faits ». C'est le fait
qu'aucun spécialiste ne puisse démontrer qu'elle est fausse ou incomplète, ni
logiquement ni expérimentalement – alors qu'elle est falsifiable [203] ; on ne
démontre donc pas la vérité, on a un consensus de non-fausseté. Et l'affirmation
110
reste vraie provisoirement, jusqu'à ce qu'on trouve une raison incontestable de la
remplacer ou de la compléter.

Un raisonnement déductif se fait toujours sur la base d'hypothèses admises, les
axiomes. Il est impossible de vérifier la cohérence (non-contradiction) ou la
vraisemblance (sémantique) d'un système d'axiomes (axiomatique) en tant que
conséquence de ces axiomes.
Dans toute axiomatique on peut faire des affirmations (propositions) dont la
véracité ou la fausseté sont indémontrables (propositions dites indécidables). Au
sens du déterminisme, de telles propositions sans justification algorithmique
n'ont pas de cause identifiable, donc pas d'origine logique. Si on découvre dans
l'esprit d'un homme une telle proposition (ce qui arrive, voir l'important
complément [92] et aussi [141]) on peut qualifier sa présence dans le psychisme
de non déterministe ; elle résulte souvent d'une intuition.
Descartes recommande aussi "d’éviter soigneusement la précipitation et la
prévention", c'est-à-dire les raisonnements sous l'empire d'une forte émotion ou
basés sur des à priori discutables ; ce conseil est toujours d'actualité.
2e précepte
Ce précepte a été interprété à tort comme recommandant de décomposer un
problème au maximum, en parcelles (sous-problèmes) aussi petites que possible, au
prétexte que plus un sous-problème est petit plus il est simple à résoudre. Ce n'est
pas ce que Descartes veut dire. En écrivant : "et qu'il serait requis pour les mieux
résoudre", il recommande de choisir la décomposition « qui marche le mieux », une
décomposition qui peut éventuellement comprendre des sous-problèmes assez
complexes pour être résolus de manière holistique, lorsqu'on sait les résoudre ainsi.
Une des approches holistiques est l'utilisation de modèles, par exemple
statistiques, lorsque c'est possible, c'est-à-dire lorsqu'un modèle mathématique de la
situation présente et/ou passée est assez stable et précis pour qu'on puisse s'en
servir pour généraliser à toute la population et prévoir l'avenir. Ce n'est pas souvent
le cas pour un problème de cours de bourse, par exemple, car on ne peut prévoir les
comportements moutonniers ou émotifs des intervenants, les événements politiques
susceptibles de changer des perspectives d'évolution de cours, etc.
Décomposer un problème implique de faire d'abord une liste de ses sous-problèmes,
en précisant pour chacun sa manière d'intervenir dans le problème de niveau
supérieur et sa manière d'interagir avec d'autres sous-problèmes. Le seul fait de
constituer cette liste empêche de se précipiter et de recommander la première
solution qui vient à l'esprit, solution d'un seul sous-problème donc solution
inadéquate si le problème est complexe.
Dans la manière d'intervenir il faut, en pratique, indiquer les influences de deux
paramètres importants de nos jours : la durée nécessaire ou délai alloué, et le
budget disponible ou le coût prévisible.
On décrit l'interaction avec d'autres sous-problèmes en indiquant le sens des
implications : "entraîne", "est conséquence de" ou les deux. On décrit aussi les
contraintes d'ordre : pour commencer à résoudre le sous-problème S, il faut déjà
avoir résolu les sous-problèmes S1, S2, etc. On construit donc un diagramme où
111
chaque décision, tâche ou étape est représentée par un cercle et ses liens avec les
précédentes et suivantes par des lignes indiquant les contraintes de fin, de délai, etc.
Exemple : méthode Mesange de l'INSEE [315]. Lorsque ce diagramme est de type
P.E.R.T. [310] on peut connaître l'enchaînement d'étapes constituant un « chemin
critique » au sens délai ou coût.
Cette approche permet de résoudre au moins qualitativement les problèmes ou
parties de problèmes "à complexité organisée" au sens de Hayek, lorsqu'il est
possible d'identifier les sous-problèmes et leurs interactions.
Qu'on ait pu ou non identifier et préciser suffisamment certains sous-problèmes
ou interactions, on documente pour chaque sous-problème ou étape les risques de
non-résolution ou échec : qu'est-ce qui peut empêcher une bonne prédiction de
résultat ou une bonne résolution du problème, une résolution respectant délai et
budget ? ; quels paramètres, quelles contraintes pourraient éventuellement intervenir
pour un sous-problème donné ? peut-on évaluer la probabilité d'un échec, d'un
surcoût ou d'un dépassement de délai ?
3e précepte
Descartes recommande de résoudre les sous-problèmes un par un, parce que c'est
plus facile et plus clair, en commençant par les problèmes les plus simples à
résoudre. Chaque fois que tous les sous-problèmes d'un problème de niveau
supérieur sont résolus, on travaille à résoudre ce dernier en tenant compte des
interactions. On procède ainsi à des intégrations (synthèses) successives.
Il faut, chaque fois qu'on a résolu un sous-problème, vérifier la stabilité de sa
solution par rapport aux contraintes et risques connus, pour ne pas considérer cette
solution comme certaine et sans risque, notamment en ce qui concerne les délais et
les coûts.
Cette méthode est très utilisée en génie logiciel, où on procède aux tests de chaque
module logiciel avant de l'intégrer avec d'autres dans un module englobant, que l'on
testera à son tour. Dans certaines applications, après les tests logiques (l'algorithme
fait-il ce qu'on en attend dans tous les cas du cahier des charges ?), on procède aux
tests de résistance aux cas aberrants (au lieu de s'effondrer, le programme sait-il se
défendre contre des données d'entrée absurdes ou des situations aberrantes en
fournissant des réponses qui restent maîtrisées ?) et enfin aux tests de performance
(débit transactionnel) et temps de réponse. Enfin, on finalise la documentation du
logiciel (cahier des charges, mode d'emploi, organisation en modules et modèles de
données pour la maintenance, tests et résultats, délai et coût de réalisation).
Lorsqu'un problème est tel que certains paramètres, interactions et risques sont
inconnus ou incertains, il vaut mieux commencer sa résolution en étudiant les
chances d'aboutir : qu'est-ce qui permet d'espérer qu'on trouvera une solution
satisfaisante ? Que peut-il se passer si on n'en trouve pas ?
On construit ensuite le diagramme d'enchaînement des tâches de la résolution
du problème, pour déterminer les chemins critiques de difficulté, de risque, de coût,
de délai ; contrairement à ce que Descartes recommande, on ne commence pas par
les sous-problèmes les plus simples tant qu'on ne s'est pas assuré qu'on a une
chance d'aboutir.
112
4e précepte
Descartes recommande de vérifier qu'on n'a rien oublié. Il faut aussi vérifier qu'on ne
s'est pas trompé (tests logiques ci-dessus), que la solution résiste à des évolutions
imprévues mais possibles du cahier des charges (tests de résistance ci-dessus), que
les contraintes de coût et budget ont des chances d'être respectées.
Il est prudent, aussi, de progresser par étapes. Lorsque la solution d'un sousproblème, mise en œuvre isolément, est possible et bénéfique, on peut la mettre en
œuvre sans attendre la solution d'ensemble. On vérifiera ainsi qu'elle est valable, et
on profitera de ses résultats avant que tout le problème initial soit résolu ; souvent
même, l'expérience de son utilisation entraînera une évolution de l'énoncé du
problème plus complexe dont elle fait partie, qu'il était donc urgent de ne pas
résoudre dans l'état initial de son cahier des charges.
Mon expérience d'informaticien m'a appris que de nombreuses applications
informatiques géantes, par exemple à l'échelle de toute l'armée de terre ou de toute
l'administration des impôts, ont échoué si gravement qu'elles ont été abandonnées
après investissement de millions d'euros. Elles ont été remplacées par des sousapplications plus simples, moins ambitieuses, moins intégrées, mais qu'on a su
réaliser en respectant la qualité, (et parfois !) le délai et le budget.
3.1.6
Déterminisme statistique de l'échelle macroscopique
Les résultats d'évolution de certains phénomènes déterministes ne peuvent être
décrits correctement que de manière statistique portant sur toute une population de
particules microscopiques, pas par des informations sur une particule individuelle.
Exemples :

Lorsque des atomes d'un corps naturellement radioactif se décomposent, on
peut prédire quel pourcentage se décomposera par unité de temps, mais pas de
quels atomes précis il s'agira. Le phénomène de radioactivité est abordé plus
loin.

Le mouvement d'une molécule donnée d'un gaz qui en a des milliards de
milliards dans les quelques cm3 d'une petite enceinte ne peut être prédit du fait
d'incertitudes décrites plus bas, comme du fait de sa complexité. Mais le
comportement de la totalité du gaz de l'enceinte peut être prédit de manière
précise par la Mécanique statistique, dans le cadre des lois de la
thermodynamique [25].

Le déterminisme portant sur toute une population de milliards de molécules qui
oscillent de manière synchrone dans une réaction chimique réversible.
Nous verrons aussi plus loin un cas très important de déterminisme statistique, celui
de l'état des systèmes à l'échelle atomique.
3.1.7
3.1.7.1
Ensemble de définition d'une loi déterministe
Structure
Une structure est une représentation mentale d'un ensemble d'éléments qui en fait
un tout cohérent à qui nous associons un nom. Elle a des relations :

propriétés statiques, qui décrivent les règles d'assemblage de ses éléments ;
113

propriétés dynamiques qui décrivent leur comportement d'ensemble.
Comme toute abstraction à priori (construite sans référence à une réalité) une
structure est éternelle : elle n'a pas été créée physiquement et ne peut disparaitre,
c'est une Idée au sens de Platon ; et elle n'a pas besoin d'un homme pour l'imaginer.
Une structure est aussi une classe d'ensembles munis des mêmes lois de définition
et de mise en relation (isomorphes) ; exemple : la classe des entiers divisibles par 7.
Une classe existe indépendamment du nombre de ses réalisations physiques,
car elle est définie par des propriétés dont l'existence ne peut faire partie. Le même
ensemble de propriétés peut décrire 0, 1, 2… ou une infinité d'objets physiques qui
les partagent ; ce n'est pas parce que j'imagine une classe des anges qu'il y en a.
Exemple physique
Un atome d'hydrogène est une structure comprenant un noyau (proton) et un
électron.

Parmi les propriétés statiques d'un tel atome on peut citer la structure en
couches de niveaux d'énergie potentielle : on ne peut le trouver sous forme
d'atome d'hydrogène qu'à des niveaux d'énergie précis.

Parmi les propriétés dynamiques de cet atome on peut citer l'aptitude de deux
d'entre eux à se grouper sous forme de molécule d'hydrogène en dégageant une
énergie de 4.45 eV (électrons-volts, 1 eV = 1.6 .10-19 joule).
Les propriétés (statiques ou dynamiques) d'une structure sont en général plus riches
que la réunion de celles de ses éléments, dont on ne peut les déduire.
On ne peut déduire des propriétés réunies du proton et de l'électron ni la
possibilité de lier deux atomes d'hydrogène en molécule, ni l'énergie dégagée.
La Mécanique quantique décrit les propriétés stationnaires et dynamiques de
l'atome et de la molécule d'hydrogène dans un champ électrique.
Autre exemple physique : assemblage d'atomes en quasi-cristaux.
Exemples mathématiques
Une structure mathématique est un ensemble d'éléments muni d'une ou plusieurs
lois de définition et souvent aussi de lois de mise en relation. Exemples :

L'ensemble des 5 seuls solides réguliers : le tétraèdre, le cube, l'octogone, le
décaèdre et l'icosaèdre.
 Lois de définition d'un tel solide : les faces sont identiques ; ce sont des
polygones réguliers faisant entre arêtes des angles égaux ;
 Lois de mise en relation : les faces ont même nombre de côtés, les sommets
ont le même nombre d'arêtes, les angles sont égaux.

L'ensemble des entiers naturels {1, 2, 3, ….} est muni de 2 relations :
 Une loi d'addition, opération définie pour toute paire d'éléments de
l'ensemble, commutative, associative, munie de l'élément neutre 0 et d'un
élément opposé de chaque entier.
114

Une loi de multiplication, opération définie pour toute paire d'éléments de
l'ensemble, commutative, associative, munie de l'élément neutre 1 et
distributive par rapport à l'addition.
Une structure mathématique est indépendante de règles de représentation : elle
reste la même quelles que soient les manières de représenter les éléments de
l'ensemble et les lois de définition ; c'est un être universel. Exemple : nombre entier.
Richesse d'une structure en informations
Parce qu'elle a un comportement d'ensemble, une structure est décrite par plus
d'informations que ses éléments considérés séparément. Ce supplément
d'informations décrit des relations : interactions des éléments de la structure entre
eux et interactions de l'ensemble de la structure avec l'extérieur. Chaque définition
d'interaction peut exiger une description en langage ordinaire et un énoncé
d'algorithme ou d'équations. Exemple :
A partir de couples d'éléments de l'ensemble des entiers naturels auquel on a
ajouté une loi de division (sauf par 0) on peut définir l'ensemble des fractions
rationnelles. Cet ensemble est plus riche (il a plus d'éléments et permet plus
d'opérations) que celui des entiers naturels, auquel on a ajouté la structure
apportée par la loi de division.
On peut résumer l'existence du supplément d'informations dû aux relations
(interactions internes et externes) d'une structure par :
« Le tout est plus riche que la somme des parties ».
On peut représenter les relations internes définissant une structure par un graphe
dont les sommets sont les éléments de l'ensemble et chaque arc entre deux
sommets décrit une relation interne avec son (ses) sens.
A
X
E
U
D
C
B
Les relations externes entre ensembles peuvent être représentées par des arcs
reliant des boîtes.
115
Dir. France
Dir. Export
sous-traitance
Atelier 6
Propriétés internes et propriétés dynamiques externes
Les propriétés statiques (d'assemblage) d'une structure ne permettent pas, à elles
seules, d'en déduire les propriétés dynamiques externes.
Le dessin d'un moteur de voiture ne permet d'en déduire ni la puissance
maximum, ni les courbes de couple et de consommation en fonction du régime.
Ces propriétés de fonctionnement dépendent de lois mécaniques et
thermodynamiques absentes du dessin, même si la conception du moteur en a
tenu compte.
On ne peut donc réduire le comportement d'une structure en tant qu'ensemble, par
rapport à son environnement, à des propriétés statiques et dynamiques de ses
éléments, bien qu'il en dépende. L'assemblage en structure ajoute de l'information.
Concepts fondamentaux et principes de logique
Certains concepts figurent dans toute représentation de la réalité comme dans
nombre d'abstractions humaines comme les structures. Exemples : le nombre entier,
la ligne droite, l'espace et le temps. Comme on ne peut les définir à partir de
concepts qui nous paraissent plus simples, nous les considérons comme
fondamentaux. Nous pensons que même des êtres différents, dans une autre
galaxie, les utiliseraient aussi. Ce sont des bases à partir desquelles nous
définissons des concepts secondaires comme la fraction rationnelle et la vitesse.
Notre pensée rationnelle repose aussi sur des règles de manipulation des
propositions, qui nous paraissent tout aussi fondamentales, universelles ; voir
Principes de logique. Elle repose également sur des règles fondamentales de calcul
comme 2 + 2 = 4 et des règles de logique formelle pour définir et manipuler des
ensembles, comme l'appartenance, la comparaison et l'ordre d'apparition.
3.1.7.2
Ensemble de définition d'une loi déterministe
Une loi déterministe est définie pour une situation de départ avec ses variables, dont
elle décrit l'évolution. Cette situation constitue sa situation de définition ; une autre
situation évoluera autrement. Ne pas confondre cette situation (état physique) de
définition et l'ensemble de définition au sens mathématique, qui regroupe les
éléments à partir desquels la loi (ou la fonction qui la représente) est définie.
Exemple : une fonction d'onde (r, t) a pour ensemble de définition un espace
vectoriel de fonctions [127] dit "de Hilbert" et pour résultat un nombre complexe.
116
Considérons un système E, réunion de plusieurs sous-systèmes a, b, c, etc., chacun
muni de sa propre loi d'évolution. En général on ne peut pas déduire la loi d'évolution
de E de celles de a, b, c, etc., parce que leur regroupement en structure E apporte
des propriétés supplémentaires irréductibles à celles de a, b, c, etc.
Ainsi, un gène humain est une longue chaîne de bases (molécules) dont il
n'existe que 4 types : A, C, G et T. Chacune de ces bases a ses propriétés, mais
les propriétés d'un gène sont bien plus riches : elles sont définies par des suites
de bases définissant des programmes de génération de milliers de protéines par
la machinerie cellulaire. Et celle-ci prend en compte, en général, plusieurs gènes
à la fois.
Il est impossible de déduire de l'ensemble des propriétés des 4 bases ci-dessus
celles du génome humain : par sa structure en chaînes de bases celui-ci constitue un
programme très riche qui régit les mécanismes cellulaires. Le fonctionnement de
chacun de ces mécanismes résulte de l'ordre des bases d'une chaîne particulière,
comme GAAGACT… Le déterminisme d'un tel mécanisme agit au niveau de sa
chaîne entière, constituant son ensemble de définition, pas au niveau d'une base.
3.1.7.3
Une erreur de certains philosophes
Certains philosophes ont oublié l'enrichissement en propriétés d'un objet dû à sa
structure : ils ont essayé de déduire directement les propriétés d'ensemble de l'objet
de celles de ses parties, évidemment sans réussir.
Certains ont ainsi affirmé que le matérialisme était incapable d'expliquer les
propriétés d'un être vivant à partir de celles des molécules de ses cellules, donc que
la vie était « quelque chose de plus ». Raisonnement non probant : ce n'est pas la
vie qui apporte quelque chose de plus, c'est la structuration en hiérarchie de niveaux
croissants d'abstraction : à chaque niveau, lorsqu'on monte des molécules aux
cellules vivantes puis aux êtres humains, il apparaît des propriétés externes,
irréductibles à celles des niveaux inférieurs ; au dernier niveau, les propriétés
dynamiques de la vie sont l'interprétation humaine de propriétés de ce niveau, ce ne
sont pas de simples lois physiques. Cette interprétation est la manière dont notre
conscience perçoit le fonctionnement de son propre cerveau. Les mécanismes
psychiques ne se déduisent pas des seuls mécanismes chimiques des neurones,
leur description exige en plus des mécanismes élémentaires psychiques.
Le matérialisme n'a qu'un seul rapport avec cette démarche : il exclut les explications
magiques, basées sur des concepts fumeux comme « l'esprit » ou « l'âme ». Et sa
conséquence en matière d'évolution physique, le déterminisme, n'entraîne pas la
prédictibilité, ne serait-ce qu'à cause des mécanismes cachés du subconscient.
3.1.8
3.1.8.1
Hasard
Le hasard dans l'évolution selon une loi de la nature
Par manque de rigueur, beaucoup de gens opposent évolution déterministe (qu'ils
considèrent à tort comme prédictible) et évolution au hasard (considérée comme
imprédictible). En précisant la notion de déterminisme scientifique nous avons déjà
vu que le résultat d'une évolution déterministe n'est pas toujours prédictible. Nous
allons maintenant préciser la notion de hasard.
117
On ne doit pas attribuer au hasard une évolution naturelle que personne ne sait
décrire ou prédire : ce serait attribuer à la nature un hasard résultant de l'ignorance
humaine. Une évolution naturelle au hasard est une caractéristique objective
(indépendante de l'homme) et dont l'imprédictibilité est soit démontrée, soit
explicitement postulée pour des raisons scientifiques.
Remarque : hasard ou pas, la nature ne peut violer ses propres lois, par exemple de
conservation de l'énergie, de la charge électrique, du moment cinétique, de la
quantité d'information en Mécanique quantique, etc.
Nous considérons comme aléatoires des suites de nombres ou de chiffres :

Dont chaque élément a la même probabilité d'apparaître.
Exemple : dans une longue suite de décimales successives de Pi, chacun des
chiffres 0 ; 1 ; 2 ; … ; 9 apparaît à peu près le même nombre fois.

Dont on ne peut calculer un élément avec un algorithme (par exemple
connaissant un nombre, fini ou non, d'autres éléments) ; cette propriété s'appelle
« absence de régularité ».
Selon cette définition, la suite des décimales successives de Pi n'est pas
aléatoire car Pi est calculable.
J'observe que notre opinion sur le caractère aléatoire diffère selon les circonstances.

Nous attendons d'un dé, d'une roulette de casino et d'une machine à boules de
tirage de loto qu'ils produisent des nombres équiprobables.

Nous pensons que la distribution des résultats d'une même expérience entachés
d'erreurs expérimentales répartit ces résultats selon la loi de Gauss, appelée
d'ailleurs aussi loi normale [28]. Dans d'autres cas, nous nous attendons à des
distributions selon d'autres lois statistiques, comme la loi de Poisson ou la loi
binomiale…
A moins de se contenter d'une prédictibilité statistique (le résultat appartient à un
ensemble prédéterminé où il a une certaine probabilité ou densité de probabilité), un
éventuel résultat d'évolution au hasard serait imprédictible ; nous rappelons plus bas
qu'en dehors du déterminisme statistique la nature n'a pas d'évolution au hasard.
Compte tenu de la variété des cas où nous pensons qu'une valeur est due au
hasard, il me semble qu'un consensus existe pour considérer comme aléatoire une
variable dont les valeurs isolées sont imprévisibles, donc dont les suites de valeurs
sont dépourvues de régularité. Si c'est bien le cas, il n'existe pas de raisonnement
capable de prédire une valeur au hasard (par exemple la valeur propre [278] d'une
observable [30] choisie par la nature dans une expérience de décohérence en
physique quantique [325], qui relève d'une prédictibilité statistique) ; il n'existe pas,
non plus, d'algorithme capable de générer une suite de nombres dont le caractère
aléatoire soit certain : un tel caractère devra toujours être postulé. De toute manière,
la conformité du modèle statistique associé arbitrairement à une distribution de
valeurs devra être estimée (par calcul) en probabilité.
118
Voyons à présent les définitions du hasard.
3.1.8.2
Définition par conformité à une loi de distribution statistique
On peut qualifier une variable d'aléatoire si la fréquence d'apparition de chacune de
ses valeurs suit une loi statistique, dont on peut calculer le(s) paramètre(s) et leur
intervalle de confiance à X %. On parlera, par exemple, de distribution de
probabilités conforme à la loi de Poisson, parce qu'on aura testé la conformité de ce
modèle avec les couples (valeur, fréquence d'apparition) disponibles. Mais même si
cette conformité est vérifiée avec une forte probabilité, elle ne sera pas certaine.
3.1.8.3
Définition de René Thom
Le mathématicien René Thom a défini le hasard dans [226] comme suit :
"Est aléatoire un processus qui ne peut être simulé par aucun mécanisme, ni
décrit par aucun formalisme".
René Thom qualifie donc d'aléatoire tout processus non modélisable par un
algorithme de calcul. Selon cette définition, la suite des décimales d'un nombre
irrationnel – que l'on sait générer par algorithme – n'est pas aléatoire, bien qu'elle
n'ait aucune régularité ; l'irrégularité n'est donc pas un critère suffisant de hasard. En
complément, voir la définition des nombres normaux de Borel [98].
Nous considérons comme aléatoires (constituant un hasard à résultats
équiprobables) les tirages du jeu de loto générés par une machine qui agite des
boules. René Thom considèrerait-il une telle machine comme un mécanisme, donc
ses tirages comme non aléatoires ? Leur caractère aléatoire vient de la complexité
de ses processus, où chaque boule subit de nombreux chocs, trop nombreux pour
que l'on puisse prédire si elle sortira ou non ; ce caractère aléatoire résulte donc de
l'imprévisibilité par complexité, sujet que nous avons abordé ci-dessus.
En postulant plus bas le déterminisme étendu, je restreins les processus aléatoires
de la nature à des opérations de choix d'un des éléments d'un ensemble de solutions
d'équation d'évolution prédéterminé, c'est-à-dire à un déterminisme statistique à
ensemble prédictible de résultats possibles.
3.1.8.4
Définition par rencontre de chaînes de causalité indépendantes - Hasard
par ignorance
Deux chaînes de causalité déterministes issues d'origines indépendantes peuvent se
rencontrer, créant alors une situation nouvelle qui n'était prévisible dans le
déroulement d'aucune des deux chaînes prise isolément.
Exemple : un jour de tempête, une tuile tombe d'un toit au moment précis où un
homme passait par là et elle le blesse. Si on considère la chaîne de causalité
tempête-tuile indépendante de celle de l'homme, leur rencontre est imprévisible.
Une personne qui n'avait pas prévu cette rencontre peut l'attribuer à tort au hasard.
Mais une définition plus large du système, prenant en compte l'ensemble des deux
phénomènes, élimine le hasard : à l'origine, toutes les conditions étaient réunies pour
que la tuile blesse l'homme. L'étonnement ou la rareté d'un phénomène ne justifient
pas qu'on attribue au hasard le résultat global de processus qui respectent tous les
lois déterministes de la nature (la seule loi naturelle où il se produit une évolution
119
comprenant une part de hasard statistique est la décohérence, phénomène de
Mécanique quantique relevant d'une prédictibilité statistique).
Cet exemple montre qu'une prévision basée sur le déterminisme doit prendre en
compte tous les paramètres susceptibles d'intervenir dans l'évolution à prévoir.
Refuser de prendre en compte la situation d'ensemble, c'est se complaire dans
l'ignorance et accepter le risque de prédictions fausses.
J'ai vu beaucoup de cas où des gens attribuaient au hasard un phénomène qu'ils ne
comprenaient pas ou n'avaient pas prévu, pour pouvoir d'abord expliquer pourquoi ils
n'avaient pu le comprendre et trouver ensuite une raison de ne pas chercher une
explication ; ce cas fréquent d'attribution au hasard est un « hasard par ignorance ».
3.1.8.4.1
Impossibilité d'existence de chaînes de causalité indépendantes
Si nous admettons, comme les astrophysiciens, que l'Univers est né et a commencé
son expansion à partir d'une région infiniment petite où les atomes n'étaient pas
encore formés, il n'y avait en cet instant-là qu'une situation unique, cause première
[16] de toute l'histoire ultérieure de l'Univers [313]. Toutes les évolutions physiques
ont commencé à ce moment-là. L'Univers a donc une unité d'existence, de structure
(homogène et isotrope) et d'évolution conforme aux lois physiques, depuis cet
instant-là. Si notre pensée y distingue, à un autre moment, des situations partielles
séparées, celles-ci sont pures abstractions humaines, conséquences déterministes
(au sens déterminisme étendu) d'une même cause première, la « naissance » qui a
précédé d'environ 10-37 s l'inflation, elle-même suivie du Big Bang et d'une expansion
qui dure toujours [313].
Des chaînes de causalité particulières, issues de situations partielles par évolutions
déterministes, ne peuvent être indépendantes puisqu'elles ont même origine. C'est
notre esprit qui les considère parfois comme indépendantes, pour permettre ou
simplifier certains raisonnements.
Voir aussi le paragraphe "Restriction du postulat de causalité".
3.1.8.4.2
Rencontre imprévisible de chaînes de causalité distinctes
En considérant arbitrairement comme distinctes deux situations S1 et S2 à des
instants qui précèdent l'instant actuel t, l'évolution ultérieure de chacune de ces
situations est une chaîne de situations reliées par des évolutions.
Deux cas d'évolution imprévisible

La Mécanique quantique enseigne qu'il y a une possibilité de multiples
évolutions simultanées (superposition quantique) à partir d'une situation donnée,
et qu'une décohérence peut se produire avec un résultat (choix d'un élément de
l'ensemble déterministe des valeurs propres [278] du dispositif qui évolue)
aléatoire : en toute rigueur, l'évolution à partir d'une situation donnée n'est pas
une chaîne, mais :
 Soit une arborescence dont toutes les branches sont parcourues en même
temps, possibilité démontrée en Mécanique quantique ;
 Soit, lors d'une décohérence, un seul résultat (valeur propre [278]) choisi au
hasard par la nature. Si nous pouvons prédire qu'il y aura une décohérence
120
et l'ensemble de ses résultats possibles, nous ne pouvons prédire celui que
nous observerons.

Il peut aussi se produire qu'une évolution ait un point de départ si sensible aux
conditions de l'instant initial t0 que, malgré son déterminisme parfait, son résultat
à l'instant ultérieur t qui nous intéresse soit imprévisible. Ce résultat peut aussi
être trop imprécis à l'instant t, même si nous essayons de le calculer connaissant
la manière dont l'évolution a débuté pendant sa première fraction de seconde.
Nous verrons cela en parlant de chaos déterministe. Le résultat d'une évolution
chaotique est imprévisible comme celui d'une décohérence, mais pour des
raisons différentes : hasard statistique dans le cas de la décohérence, calcul et
mesures imprécis dans le cas de la sensibilité aux conditions initiales.
L'existence de ces deux cas d'évolution imprévisible entraîne l'impossibilité de
prévoir le résultat de la rencontre de deux arborescences de causalité qui
contiennent au moins une évolution imprévisible. Mais il faut savoir qu'à l'échelle
macroscopique on n'observe pas de décohérence parce qu'on n'observe pas de
superposition quantique, et que toutes les évolutions ne sont pas chaotiques. A
l'échelle humaine, donc, les seules rencontres imprévisibles de chaînes de causalité
sont celles où l'une au moins a subi une évolution chaotique. Et comme ce type
d'évolution ne doit rien au hasard (son imprédictibilité est due à une impossibilité de
mesurer et calculer avec une précision infinie, pas à un choix aléatoire de la nature),
on peut dire qu'à l'échelle macroscopique il n'y a pas de rencontre de chaînes de
causalité qui soit entachée de hasard, même quand son résultat est imprévisible.
3.1.8.5
Définition par la quantité d'information
On peut aussi définir comme aléatoire un nombre dont l'écriture est plus concise (en
nombre de signes ou de bits, par exemple) que le texte de tout algorithme capable
de le générer ; un tel nombre a donc une écriture incompressible par algorithme. En
admettant qu'il est absurde d'écrire en un langage informatique un algorithme plus
long que le nombre que son exécution générerait, il n'existe pas d'algorithme
intéressant capable de générer un nombre aléatoire, ce qui justifie la définition de
René Thom.
Le problème de cette définition est d'ordre pratique : étant donné un nombre et un
algorithme qui le génère, comment être certain que cet algorithme est le plus
concis ? C'est impossible !
A part le cas où il est défini par conformité à un modèle statistique, le hasard qui régit
une évolution ne peut être défini que de manière négative : le caractère inexplicable
qu'il implique ne peut être défini que par une impossibilité de déduction ou de
caractérisation algorithmique.
3.1.8.6
Des suites et ensembles sont-ils aléatoires ?
On ne peut le savoir :

Il n'existe pas d'algorithme capable, étant donné un nombre, de déterminer si on
peut ou non générer sa suite de chiffres par un programme plus concis que lui.
On peut malgré tout chercher s'il est absolument normal au sens de Borel [98].

Il n'existe pas, non plus, d'algorithme capable de déterminer si une suite donnée
de nombres est aléatoire. On peut en étudier le spectre de Fourier et le
121
coefficient d'autocorrélation, mais cela ne donnera qu'une idée d'éventuelles
périodicités, pas une preuve rigoureuse d'origine aléatoire ou non.

Enfin, étant donné un ensemble de n-uples de nombres, on peut étudier leur
éventuelle conformité à un modèle statistique, mais sans jamais avoir de
certitude : un tel modèle est toujours probable (avec une probabilité calculée
pour chacun de ses paramètres), jamais certain.
3.1.8.7
Hasard postulé et hasard prouvé
Le déroulement ou le résultat d'une évolution régie par une loi physique de la nature
ne peut logiquement être entaché que de deux sortes de hasard, le hasard postulé et
le hasard prouvé. Pour préciser les conditions d'application du hasard, nous allons
utiliser cette dichotomie.
Le hasard postulé
Il y a hasard postulé lorsqu'il existe un consensus de la communauté scientifique
postulant le caractère imprévisible du choix de l'élément, et où il n'existe pas de
contre-exemple prouvant que ce choix peut être prédit.
C'est ainsi que tous les physiciens postulent un choix au hasard d'une valeur propre
[278] d'opérateur dans chaque évolution de physique quantique par décohérence : ils
admettent alors les postulats 3 et 4 de la Mécanique quantique. A ma connaissance,
il n'y a pas en physique d'autre cas d'évolution où la communauté scientifique
postule un choix au hasard de résultat.
L'évolution par décohérence n'existe que dans des expériences de physique
quantique [325]. C'est un cas intéressant (dit « de déterminisme statistique » ou « à
prédictibilité statistique ») où le résultat, une valeur propre, fait partie d'un ensemble
dont tous les éléments sont prédictibles au départ de l'expérience, chacun avec une
probabilité connue. La prédictibilité du résultat est alors limitée à cet ensemble, la
nature refusant de choisir un résultat unique tant que l'évolution n'a pas détruit la
cohérence, comme le fait une mesure, nécessairement brutale et irréversible.
Un autre phénomène de physique quantique, l'effet tunnel, produit des
comportements analogues à la décohérence en permettant le choix au hasard
d'une valeur propre [278] parmi un ensemble de valeurs propres possibles,
correspondant à des états d'énergie entre lesquels un corpuscule peut passer,
osciller où simplement se trouver simultanément, chaque état avec sa
probabilité. Dans cet exposé nous rattachons l'effet tunnel à la décohérence
parce qu'il conduit au même type de choix au hasard, au même déterminisme
statistique.
Ne connaissant pas d'autre cas où on a postulé qu'une évolution naturelle produit un
résultat au hasard, je dois supposer que c'est le seul jusqu'à preuve du contraire.
Le hasard prouvé
Pour une variable donnée affectée par une évolution naturelle donnée, un résultat au
hasard est considéré comme prouvé si et seulement si il existe une démonstration de
l'impossibilité de trouver un algorithme de prédiction.
122
Une éventuelle démonstration ayant nécessairement été faite dans le cadre d'une
axiomatique [67], elle a une valeur théorique qui doit, si possible, être validée par
une expérience. Et là il y a une difficulté : on ne peut pas prouver qu'une valeur est
choisie au hasard, c'est-à-dire qu'il n'existe pas de raison logique de ce choix.
Si une répétition d'expériences identiques pour une variable donnée produit des
résultats distribués selon une loi stable, et que la distribution ne résulte pas
d'erreurs expérimentales, le caractère aléatoire peut être supposé ; on peut alors
tenter de voir s'il suit une certaine loi statistique, avec des tests conformes à la
théorie des probabilités. Mais on n'aura pas une démonstration axiomatique
d'évolution au hasard, il ne s'agira pas de hasard prouvé.
Il n'y a pas, non plus, de critère pour prouver qu'une suite de valeurs ne présentant
pas de régularité évidente est une suite aléatoire.
Le déterminisme scientifique est incompatible avec un hasard prouvé. Si un résultat
d'évolution n'est pas reproductible et que cette évolution n'est pas une décohérence,
il n'y a que deux possibilités : ou la règle de stabilité des lois de la nature est en
défaut, ou il y a une erreur dans la réalisation de l'expérience ou la mesure d'un
paramètre.
Cas particulier intéressant d'« erreur expérimentale » : l'évolution sensible aux
conditions initiales ci-dessus, où le calcul de l'évolution est possible mais son
résultat est inutilisable. Le hasard qui affecte le résultat n'est pas dû, dans ce
cas, à la loi d'évolution, qui reste déterministe au sens scientifique et à résultat
calculable avec une précision arbitraire ; il est dû aux erreurs expérimentales
inévitables, amplifiées par le modèle mathématique de la loi d'évolution.
Conclusion : en postulant le déterminisme scientifique et sa règle de stabilité, une loi
d'évolution autre que la décohérence ne peut avoir de résultat relevant d'un hasard
prouvé ; et dans le cas de la décohérence, le caractère aléatoire est celui d'un
déterminisme statistique.
A part les phénomènes de physique quantique, où la nature choisit au hasard
un résultat dans un ensemble prédéterminé dont chaque élément est associé à
une probabilité, la nature n'a pas d'évolution au hasard.
3.1.8.8
Différences entre déterminisme statistique, fluctuations quantiques et
hasard
Evolutions régies par un déterminisme statistique

Lorsqu'une évolution de Mécanique quantique est régie par l'équation de
Schrödinger, une variable d'état continue a un nombre infini de valeurs, chacune
avec sa densité de probabilité ; une variable discrète a un nombre fini de
valeurs, chacune avec sa probabilité.

Quand une décohérence (phénomène ne relevant pas de l'équation de
Schrödinger) se termine à l'échelle macroscopique par un choix au hasard de la
valeur d'une variable, celle-ci est unique, stable, et appartient à un ensemble
prédictible de valeurs propres [278].
123
Dans ces deux cas, l'évolution est régie par un déterminisme statistique. Elle a une
cause connue et elle est reproductible : une même cause (même dispositif
expérimental) produit une même évolution déterministe, qui produit le même
ensemble de résultats avec les mêmes probabilités ou densités de probabilités.
Fluctuation quantique en un point
Lors d'une telle fluctuation, il y a deux variables : sa durée Δt et l'énergie potentielle
empruntée au vide ΔE. En outre, la fluctuation d'énergie produit une particule de
matière et une particule d'antimatière qui s'attirent et s'annihilent en restituant
l'énergie empruntée : l'évolution s'annule par retour à la situation initiale.
(Le seul contre-exemple connu est celui de la théorie « d'évaporation » des trous
noirs, évolution réelle où l'annihilation est incertaine parce qu'une particule peut
retomber dans le trou noir alors que son antiparticule s'échappe.)
Une fluctuation quantique n'a pas de cause autre que l'instabilité de l'énergie du vide,
qui n'a de valeur définie ou stable à aucun instant, conformément au principe
d'incertitude de Heisenberg. Elle n'est pas déterministe, car cette instabilité ne relève
ni du postulat de causalité ni de la règle de stabilité. Mais comme elle respecte la
limite minimum ΔE . Δt  ½ä du principe d'incertitude, ainsi que la conservation de
l'énergie et de la charge électrique moyennes d'un volume d'espace et d'un intervalle
de temps, ce n'est pas un cas où la nature fait n'importe quoi. Elle est imprévisible et
ne peut être qualifiée de hasard que selon la définition de René Thom.
3.1.8.9
Hasard et niveau de détail d'une prédiction
On peut interpréter le choix statistique de la nature lors d'une décohérence comme
une impossibilité de prédire, pour une variable discrète, la valeur choisie à un niveau
plus fin que l'ensemble des valeurs propres [278]. Ce choix lui-même constitue une
évolution de type particulier, le déterminisme statistique, qui ne se manifeste qu'au
niveau microscopique, en physique quantique [325]. De même, la mesure d'une
variable continue ne sera précise qu'à une demi-largeur de son paquet d'ondes près.
Une limite inférieure de niveau de prédiction intervient aussi dans la décomposition
radioactive d'un échantillon d'uranium 238, où le déterminisme régit la proportion de
décompositions par unité de temps, pas le choix d'un atome particulier qui se
décomposera ou l'instant de sa décomposition. Il ne peut y avoir de loi qui prédit quel
atome se décomposera, ou à quel moment un atome donné se décomposera. Nous
pouvons parler de choix au hasard de l'atome dans l'ensemble des atomes de
l'échantillon, ou de choix au hasard de l'instant de décomposition d'un atome donné
dans le futur (choix vague !). Mais de telles affirmations évidentes ne nous apportent
rien, en attribuant au hasard soit un refus de précision de la nature dont le
déterminisme s'applique au niveau de tout l'échantillon, soit notre ignorance d'une loi
de choix ; affirmer le hasard par ignorance est stérile.
La notion de niveau de prédiction intervient également lorsqu'on distingue le niveau
atomique (où les prédictions viennent de la Mécanique quantique) et le niveau
macroscopique (où elles viennent des lois de la physique macroscopique). En
appliquant une loi de physique macroscopique on ne peut prévoir quel atome
évoluera d'une certaine façon, et l'application de la Mécanique quantique au domaine
macroscopique est en général impossible par excès de complexité. Non que les lois
de ces deux niveaux se contredisent : à la frontière entre eux elles doivent permettre
124
les mêmes prédictions, d'après le principe de correspondance. Il faut comprendre
qu'une loi a un domaine de prédiction dont on ne doit pas sortir.
Certaines personnes attribuent à tort au hasard le résultat imprédictible d'une
évolution entre un point situé avant une bifurcation dans l'espace des phases et un
point après cette bifurcation. La bifurcation se produit lorsqu'un paramètre de la loi
d'évolution franchit une valeur critique, franchissement qui entraîne le choix d'une
nouvelle loi au point de bifurcation ; aucun hasard n'intervient dans ce choix.
Le fait qu'on étudie des gaz ou des liquides à l'aide des méthodes et théorèmes de la
Mécanique statistique ne vient pas d'une évolution aléatoire des molécules de ces
fluides, qui se déplacent selon des lois de mouvement et de choc élastique
déterministes (et d'ailleurs symétriques par renversement du sens du temps) ; c'est
parce qu'on ne s'intéresse qu'à des propriétés macroscopiques de ces fluides
(température, pression, entropie, turbulence, etc.).
3.1.8.10
Premières conclusions sur le hasard et la prédictibilité
Il faut cesser de croire au hasard en tant que principe de comportement imprévisible
de la nature. Ce n'est pas parce que je ne sais pas expliquer un phénomène ou
prévoir son évolution que je peux invoquer le hasard. L'attribuer au hasard est aussi
peu justifié que l'attribuer à Dieu, et faire du hasard un refuge pour mon ignorance ne
serait pas rationnel.
Une variable affectée par une loi d'évolution ne peut ni échapper à son ensemble de
définition, ni évoluer en violant une loi de la physique.
La nature limite ce que l'homme peut prévoir, mais elle n'est jamais fantaisiste : dans
une situation donnée elle réagit toujours de la même façon (stabilité de l'ensemble
des valeurs de chaque variable, éventuellement probabiliste) et obéit toujours à des
lois de conservation (de l'énergie, du moment cinétique, etc.) ; seule exception au
déterminisme de la nature, qui n'est pas une évolution : la fluctuation quantique.
3.1.8.11
Différences entre hasard, imprécision et indétermination en Mécanique
quantique
Il n'y a pas de hasard dans la position ou la vitesse d'un corpuscule de Mécanique
quantique, il y a d'abord de l'imprécision, c'est-à-dire un refus de la nature de nous
accorder la possibilité de précision infinie qui satisferait notre esprit. Ce refus est dû
à la nature probabiliste de l'état de chaque corpuscule. Il ne faut donc pas confondre
le déterminisme statistique, avec son choix d'élément et son imprécision (flou par
superposition pour une variable continue), et le hasard (où la nature ferait n'importe
quoi).
En pensant à la « probabilité de position » d'un corpuscule qui se déplace, on
risque de se le représenter comme un objet matériel qui a une dimension précise
et des chances de se trouver ici plutôt que là, représentation inexacte. Cette
dimension n'est pas précise, et il vaut mieux penser à un corpuscule de forme
vague, sorte de nuage dont une infinité de réalisations sont superposées dans le
paquet d'ondes qui accompagne son déplacement, infinité qui lui donnerait un
aspect flou si on pouvait en faire une photo instantanée.
125
L'imprévisibilité associée aux fluctuations ponctuelles d'énergie n'est due au hasard
que selon la définition de René Thom. C'est une instabilité (indétermination) permise
par le principe d'incertitude de Heisenberg : pendant un court intervalle de temps Δt
une énergie n'est pas définie à mieux que ΔE près, où ΔE.Δt ≥ ½ä (ä est une
constante de l'Univers). Les fluctuations quantiques manifestent seulement un refus
de stabilité de la nature, refus qui ne dure qu'un court instant et ne change pas
l'énergie moyenne au point considéré. Il faut accepter ces fluctuations comme on
accepte l'imprécision sur la position d'un corpuscule en mouvement, situé « partout »
en même temps dans son paquet d'ondes : dans aucun de ces cas la nature n'agit
au hasard en faisant n'importe quoi.
Une erreur fréquente
L'imprécision et l'indétermination de Heisenberg sont des propriétés naturelles et
objectives d'une évolution, alors que l'imprédictibilité de son résultat est une
conséquence humaine. Trop de gens parlent d'une « évolution au hasard » dans
tous les cas où ils ne peuvent en prévoir le résultat, décrivant ainsi une propriété
d'une transformation naturelle au moyen de son imprédictibilité par l'homme.
3.1.8.12
Résumé des conclusions sur le hasard dans l'évolution naturelle
La nature est parfaitement déterministe
Selon le phénomène, la nature inanimée est régie soit par le déterminisme
scientifique, soit par le déterminisme statistique. Répétons-le, elle ne fait jamais
n'importe quoi. Cette affirmation est confirmée par le mathématicien et philosophe
des sciences Husserl dans [312] page 226 :
« Ce monde n'est pas le même pour l'homme ordinaire et pour l'homme de
science ; pour le premier il est un ensemble d'une ordonnance simplement
approximative, parsemé de mille hasards ; pour le second il est la nature,
entièrement régie par des lois d'une rigueur absolue. »
Résumé des autres conclusions sur le déterminisme des évolutions naturelles

L'indétermination et le déterminisme statistique affectent la prédictibilité des
conséquences, pas les conséquences (lois d'évolution ou situations) ellesmêmes ; la prédictibilité est un besoin humain ignoré par la nature.

Le déterminisme statistique de la décohérence est un choix par la nature d'un
élément dans un ensemble prédéfini de valeurs propres [278] de l'opérateur
associé à une grandeur mesurable, ensemble où chaque valeur a une
probabilité prédéfinie. Ce choix ne se produit que dans un seul type d'évolution
naturelle, la décohérence, phénomène de physique quantique.
Dans le déterminisme statistique des évolutions où une variable d'état (comme la
position) est continue, la nature produit une infinité de valeurs en superposition.

Une évolution ne viole jamais une loi de la nature ; elle ne viole jamais,
notamment, la thermodynamique ou la conservation de l'énergie + masse.

Ne pas confondre hasard (valeur choisie sans contrainte), imprécision (refus de
précision) et incertitude quantique (instabilité, non-définition).

Il faut séparer déterminisme et prédictibilité, le premier n'entraînant pas toujours
la seconde.
126
Il y a des lois d'évolution parfaitement déterministes (échappant à tout hasard), à
résultat calculable à tout instant t postérieur à un instant initial t0, qui pourtant
interdisent en pratique la prédiction de ce résultat à cause d'une sensibilité
énorme, non bornée, aux conditions initiales. Dans ce cas d'imprécision on parle
de chaos déterministe.
Voir en fin de texte la table résumant les cas d'imprédictibilité.
3.1.8.13
Evolutions attribuées à tort au hasard
Je me suis permis de limiter le hasard des évolutions naturelles à l'évolution
particulière de physique quantique [325] appelée décohérence parce que j'ai précisé
ci-dessus des limitations de prédictibilité dues à l'ignorance, l'imprécision ou la
complexité. Je considère donc comme erronées des attributions au hasard
d'évolutions qu'on ne comprend pas (ignorance), dont on ne peut prédire le résultat
avec autant de précision qu'on voudrait (superposition, imprécision ou sensibilité aux
conditions initiales), ou dont le déroulement est trop complexe pour pouvoir être
modélisé et calculé par un algorithme prédictif.
Cas particulier : les fluctuations quantiques, qui ne sont des évolutions irréversibles
que lors de l'évaporation des trous noirs, ne relèvent pas du déterminisme et ne sont
régies que par l'inégalité de Heisenberg ΔE.Δt ≥ ½ä. On peut attribuer celles-ci au
hasard, mais seulement si on le définit comme René Thom.
Le hasard pour raisons psychologiques
J'ai maintes fois constaté qu'une personne attribue des évolutions incomprises au
hasard pour des raisons purement psychologiques :

Le besoin humain de cohérence rend pénible la non-compréhension d'un
phénomène, c'est-à-dire l'impossibilité de le relier à des faits ou phénomènes
connus par des relations de causalité, certaines ou au moins probabilistes.

L'esprit humain aime mieux, alors, inventer des relations de causalité (en
raisonnant par analogie ou induction, ou même en faisant confiance à son
intuition) qu'admettre son ignorance ; il n'est même pas capable de s'en
empêcher. Il faut à un homme un sérieux entraînement à la rigueur pour
admettre son ignorance, mettre en cause son intuition et vivre l'esprit en paix
sans comprendre.

Le besoin humain de non-culpabilité, de rejet de responsabilité : je prétends
qu'un phénomène relève du hasard parce que je ne sais pas l'expliquer et
qu'admettre mon ignorance me rabaisserait, aux yeux des autres comme aux
miens.
Le hasard par raison de contingence
Beaucoup de gens, y compris des scientifiques, oublient le principe d'identité :
Avant de lire la suite, voir l'important développement [16].
Oubliant le principe d'identité, beaucoup de gens considèrent qu'un événement du
passé ou du présent dont l'existence est certaine aurait pu ne pas se produire ou
avait une certaine probabilité de ne pas se produire. C'est là une faute de logique,
une spéculation pure. On se trompe donc en croyant comme Platon que le possible
127
précède le réel et le structure ; au contraire, c'est le réel et son déterminisme qui
définissent ce qui est possible pour la nature et prévisible pour l'homme.
3.1.8.14
Conséquences multiples d'une situation donnée - Décohérence
Nous avons vu qu'à part l'ignorance il y a trois types de raisons qui empêchent ou
limitent la prédiction des conséquences d'une évolution : l'imprécision, la complexité
et le choix statistique en Mécanique quantique. L'existence de ce choix oblige d'ores
et déjà à préciser le postulat de causalité : dans la phrase « si la cause existe au
départ, la conséquence a lieu » il faut entendre par conséquence d'une situation la
possibilité d'une multiplicité de conséquences superposées au sens des fonctions
d'onde.
Imprécision, complexité et choix statistique sont dus à la nature même des lois de
l'Univers, qu'il n'est pas question d'ignorer - particulièrement lors d'une prédiction
d'évolution.
Allons au fond des choses. Nous avons vu plus haut que dans certaines situations la
nature réagissait de manière multiple :

Soit en déclenchant plusieurs lois d'évolution à la fois, dont chacune a un
déroulement indépendant et un résultat unique.
C'est le cas en physique quantique lorsque la trajectoire d'un corpuscule entre
un point de départ A et un point d'arrivée B peut être considérée comme une
infinité de trajectoires simultanées, empruntant des chemins différents avec des
vecteurs vitesse fonctions différentes du temps, mais qui se terminent toutes en
B en même temps.
C'est aussi le cas lorsque la trajectoire d'un corpuscule est définie à chaque
instant par un paquet d'ondes superposées, ondes de probabilité décrivant des
amplitudes de probabilité de présence qui s'ajoutent en amplitude et en phase.
Vu à un instant donné le corpuscule paraît alors flou, comme s'il était composé
d'une infinité de corpuscules superposés avec un décalage.
Mais, à son échelle macroscopique, l'homme ne voit jamais plusieurs
conséquences à la fois, il ne peut voir que leur résultat, nécessairement unique ;
et dans le cas d'un corpuscule accompagné d'un paquet d'ondes, ce résultat à
un instant donné est une position floue et une vitesse imprécise.

Soit en déclenchant une seule loi d'évolution donnant des résultats multiples
superposés, c'est-à-dire existant en même temps.
Cette superposition d'états simultanés n'est pérenne qu'à l'échelle atomique.
L'interaction entre la superposition microscopique et l'environnement
macroscopique (par exemple lors d'une mesure physique) met fin à la
superposition et révèle à l'échelle macroscopique un seul des états superposés,
choisi au hasard ; le passage de l'état superposé à l'état unique est appelé
« décohérence » et il est irréversible. ( Compléments sur la décohérence )
3.1.8.15
Il faut admettre les dualités de comportement
La Mécanique quantique, outil mathématique de la physique quantique [325], permet
aussi d'expliquer pourquoi certains corpuscules apparaissent tantôt comme de petits
128
objets matériels (particules), tantôt comme des ondes de probabilité capables de
provoquer des phénomènes d'interférences.
L'explication de cette dualité repose sur le « principe de complémentarité », énoncé
en 1928 par Niels Bohr. Selon ce principe, le comportement de phénomènes comme
les électrons ou la lumière est tantôt corpusculaire, tantôt ondulatoire, selon
l'expérience ; il y a donc une dualité onde-particule. On ne peut observer à la fois un
comportement corpusculaire et un comportement ondulatoire, ces deux
comportements s'excluant mutuellement et constituant des descriptions
complémentaires des phénomènes auxquels ils s'appliquent.
De son côté, la Relativité montre que l'énergie et la matière sont deux formes
complémentaires d'un même système ou d'une même région de l'espace, formes qui
peuvent se transformer l'une dans l'autre selon l'équation d'Einstein e=mc2. Elle
montre aussi que la gravitation peut être interprétée comme un champ de force ou
comme une courbure de l'espace-temps due à la présence d'une masse.
La physique moderne nous oblige donc à considérer qu'un phénomène de la nature
peut présenter deux aspects très différents, aspects qui se complètent lorsqu'on veut
comprendre ou prédire certaines évolutions.
3.1.9
Chaos
Par manque de rigueur, on considère souvent un phénomène naturel chaotique
comme régi par le hasard. Nous allons voir qu'en précisant les évolutions chaotiques
il n'en est rien.
3.1.9.1
Définition
Je ne connais pas de définition précise du mot « chaos » en matière d'évolution. Les
divers textes sur la dynamique des systèmes dont j'ai connaissance s'accordent pour
qualifier de chaotique une évolution déterministe au sens mathématique :

Qui est non linéaire : l'effet d'une variation d'un paramètre n'est pas proportionnel
à cette variation ;

Qui est si sensible aux conditions initiales qu'on ne peut en prévoir le
déroulement à long terme avant son début, mais seulement un instant après,
quand elle est « lancée » ;

Ou dont la connaissance pendant un temps aussi long qu'on veut ne permet pas
de prévoir le déroulement ultérieur à long terme, ce déroulement étant
apériodique (c'est-à-dire dépourvu de régularité) ;

Ou dont la courbe d'évolution dans l'espace des phases :
 N'est ni réduite à un point, comme celle d'un système qui n'évolue pas ;
 Ni convergente vers un attracteur ponctuel, comme un système dissipatif qui
perd de l'énergie (définition de « dissipatif ») ;
 Ni fermée, comme celle d'un pendule simple, système périodique conservatif
(définition de « conservatif ») ;
 Ni inscrite sur un tore, comme celle de systèmes quasi périodiques ;
 Converge (lorsque le système est dissipatif) vers un attracteur étrange,
courbe à structure fractale où toute évolution qui commence reste confinée,
129
mais ne peut être prédite avant son départ, du fait de sa sensibilité aux
conditions initiales.
Exemples de phénomènes chaotiques.
3.1.9.2
Prédictibilité des phénomènes chaotiques – Chaos déterministe

La définition d'une évolution chaotique ne fait pas intervenir le hasard : on parle
souvent de « chaos déterministe ». Un phénomène chaotique reste à tout
moment régi par une loi déterministe à évolution calculable, même s'il peut
aussi, comme tout phénomène, changer de loi d'évolution sous l'influence d'un
paramètre qui change. (Exemples)

Un phénomène chaotique est apériodique, mais la réciproque n'est pas toujours
vraie. Un phénomène apériodique :
 A une évolution prévisible à long terme si on connaît toutes les fréquences
d'amplitude non négligeable de sa décomposition en série de Fourier ;
 N'a la sensibilité aux conditions initiales d'un phénomène chaotique que
lorsqu'il est dissipatif, sur l'attracteur étrange vers lequel il converge.
3.1.9.3
Conditions d'apparition d'une évolution chaotique – Série de Fourier
Toute évolution dans le temps d'une variable peut être décomposée en série de
Fourier, somme f(t) d'un nombre fini ou infini de fonctions sinusoïdales de fréquences
multiples d'une fréquence de base, chacune avec son amplitude et sa phase :
f(t) = a0 + a1sin(t+1) + a2sin(2t+2) + a3sin(3t+3) +….
L'ensemble des fréquences composantes est appelé spectre de Fourier.
L'exemple graphique ci-dessous montre une évolution dans le temps qui se
décompose en une somme de 6 fonctions sinusoïdales. Il montre aussi que l'addition
de plusieurs phénomènes oscillants sinusoïdaux, chacun avec sa fréquence et sa
phase, peut avoir une allure désordonnée, chaotique.
Somme de 6 fonctions périodiques de périodes incommensurables
(le rapport des périodes des fonctions, prises deux à deux, est toujours irrationnel)
130
Chaque évolution périodique est un comportement régulier, prévisible. Mais la
composition de plusieurs fonctions périodiques de fréquence, amplitude et phase
différentes peut être apériodique si les périodes des phénomènes composants sont
incommensurables entre elles (c'est-à-dire si leurs rapports deux à deux sont tous
irrationnels) comme dans l'exemple du graphique. Voici trois cas d'évolution vers un
régime chaotique de systèmes dynamiques à petit nombre de degrés de liberté.

Un régime périodique pendant un long intervalle de temps peut se déstabiliser
brusquement, devenir chaotique pendant un moment, puis redevenir périodique,
avant de se déstabiliser de nouveau au bout d'un temps qui n'est pas
nécessairement égal au précédent. Une telle évolution « par bouffées » a été
observée dans certains cas de convection thermique et de réaction chimique
évolutive.

Un régime périodique peut évoluer par des doublements successifs de sa
période sous l'effet d'un paramètre de contrôle, jusqu'à atteindre un point
d'accumulation où la période est infinie et où commence l'évolution chaotique.
On rencontre ce type d'évolution en dynamique des populations.

Un régime périodique peut devenir quasi périodique sous l'effet d'un paramètre
de contrôle. L'évolution correspond alors à 2 fréquences, puis peut-être à 3, etc.
Si ces fréquences sont indépendantes et incommensurables (l'une au moins
n'étant une fraction exacte d'aucune autre), le régime peut devenir chaotique.
Dans un système dynamique à nombre de degrés de liberté plus important, le chaos
peut être à la fois temporel (comme les cas que nous avons vus jusqu'à présent) et
spatial (le comportement différant d'un point du système à un autre, le système ayant
des régions d'évolution ordonnée et des régions d'évolution désordonnée).
Conclusion : une évolution déterministe peut passer d'un régime stable et prévisible
à un régime chaotique, imprévisible en pratique, sous l'influence de divers
paramètres, sans cesser d'être déterministe (et décrite par des équations
différentielles ou des équations à dérivées partielles). [281]
3.1.9.4
Fluctuations faussement aléatoires d'un phénomène apériodique
Certains auteurs ont attribué à tort au hasard des effets considérables, voire
catastrophiques, dus aux fluctuations d'un phénomène apériodique ou chaotique.
Voici des exemples de ce qui peut arriver.
Fluctuations périodiques dont les amplitudes s'ajoutent
Un phénomène apériodique ou quasi périodique peut comporter, dans sa
décomposition en série de Fourier, une composante de période très longue et
d'amplitude non négligeable. Il peut alors arriver, même si c'est rare, que cette
amplitude s'ajoute à d'autres amplitudes de phénomènes composants pour donner
une amplitude totale considérable, susceptible de provoquer une catastrophe. Il peut
aussi arriver qu'un nombre élevé de phénomènes composants ajoutent leurs
amplitudes à des instants précis, même si ces instants sont rares.
Des « vagues scélérates » océaniques peuvent atteindre des hauteurs de plusieurs
dizaines de mètres, par empilement d'oscillations verticales d'eau qui se déplacent à
des vitesses différentes et arrivent à se rattraper. Ces vagues endommagent
131
gravement même de très gros bateaux. Elles sont rares, imprévisibles et font l'objet
d'une surveillance internationale par satellite pour avertir les navires menacés.
Le hasard n'est pour rien dans de telles fluctuations. Tous les phénomènes
périodiques composant un phénomène apériodique ont une évolution calculable,
donc prévisible. L'attribution au hasard vient de l'ignorance des auteurs, due en
partie à la rareté des phénomènes d'amplification catastrophique, qui gêne leur étude
scientifique. Encore une fois, la nature ne connaît le hasard que lors du choix d'un
élément dans l'ensemble des valeurs de la solution du modèle mathématique
d'évolution, valeurs toutes prédéterminées et à probabilités connues.
Amplification d'une fluctuation par franchissement de valeur critique
Une fluctuation exceptionnelle mais d'amplitude intrinsèquement modeste (comme
une fluctuation moléculaire) peut entraîner une évolution d'ampleur spectaculaire
lorsqu'elle fait franchir une valeur critique à un paramètre, mettant alors en jeu une
énergie importante et changeant une loi d'évolution par bifurcation dans l'espace des
phases. Exemples :

Un lac à l'eau très pure qui devrait être gelé est en surfusion à une température
largement inférieure à zéro degré C. S'il n'y a pas de vent, sa surface est très
calme. Si on y lance un caillou minuscule l'eau peut geler instantanément, avec
une énergie de solidification des millions de fois plus importante que l'énergie
apportée par la chute du petit caillou.

Un rocher de plusieurs milliers de tonnes est en équilibre instable à flanc de
montagne. Le gel peut déstabiliser une petite pierre située au-dessus, et cette
pierre en tombant va desceller le rocher qui va tomber à son tour, avec un
échange d'énergie potentielle en énergie cinétique infiniment supérieur à
l'énergie cinétique de la petite pierre.
Une variable macroscopique qui fluctue du fait d'évolutions microscopiques peut
donc subir :

Soit une évolution masquée par les incertitudes sur les autres paramètres
macroscopiques.

Soit une évolution amplifiée par une sensibilité à des conditions initiales et/ou
une bifurcation entraînant un changement de loi d'évolution ; des bifurcations en
cascade peuvent alors changer un système stable en système chaotique,
comme c'est le cas pour certaines formes de turbulence.
Dans ces cas d'amplification le hasard n'est pour rien : les conditions (énergie,
instabilité) du déclenchement du phénomène spectaculaire existaient au départ, un
paramètre à valeur critique dépendant d'un phénomène fluctuant plus modeste.
En parlant d'« effet papillon », le météorologue Edward Lorenz écrivait : "un
battement d'ailes d'un tel insecte peut changer le temps qu'il fera à des milliers
de kilomètres". Il voulait ainsi illustrer l'extrême sensibilité aux conditions initiales
de certains phénomènes atmosphériques, sujet que nous avons évoqué plus
haut. Mais il ne faut pas prendre son affirmation au pied de la lettre, les variables
météorologiques étant connues avec une précision très inférieure à l'erreur
produite en considérant le battement d'ailes du papillon comme négligeable.
132
L'effet d'amplification par bifurcation en un point singulier de l'espace des phases (un
paramètre franchissant une valeur critique) ou par changement de bassin
d'attraction, peut aussi intervenir lorsque d'un côté au moins de ce point l'évolution
du système est fluctuante, par exemple de manière apériodique. Il suffit alors d'une
oscillation un peu plus forte pour que la valeur critique soit franchie et le système
évolue brusquement de manière spectaculaire. Mais comme précédemment,
l'évolution du système n'a jamais cessé d'être prévisible, donc dénuée de hasard.
3.1.9.5
Fluctuations d'énergie dues au principe d'incertitude de Heisenberg
La Mécanique quantique montre qu'au voisinage de tout point de l'Univers l'énergie
n'est pas définie et stable, mais qu'elle a une plage de variation qui dépend de la
largeur de l'intervalle de temps où on l'observe : l'énergie peut varier d'autant plus
que l'intervalle de temps est réduit. Bien entendu, le principe de conservation de
l'énergie reste respecté en moyenne : un « emprunt » momentané d'énergie à
l'espace environnant est restitué l'instant d'après. Ce phénomène a été évoqué plus
haut et l'est plus en détail là. Nous avons vu que ce n'est une évolution aléatoire que
selon la définition de René Thom.
3.1.9.6
Fluctuations de variables macroscopiques dues à des variations
microscopiques
Pour présenter et analyser ce phénomène nous allons raisonner sur un exemple.
La complexité du mouvement brownien de molécules de gaz dans une enceinte
fermée, due au nombre de molécules (des milliards) et au nombre de chocs par
seconde subis par chacune (des milliers), rend illusoire toute prédiction du
mouvement d'une molécule donnée connaissant sa position et son vecteur vitesse à
l'instant initial, bien que les lois des mouvements et des chocs élastiques de la
molécule soient déterministes au sens traditionnel. En outre, le sort d'une molécule
particulière étant de peu d'intérêt car toutes les molécules sont identiques, on a pris
l'habitude de considérer des grandeurs statistiques caractérisant l'ensemble du gaz
de l'enceinte : vitesse moyenne d'une molécule, température, pression et entropie du
gaz de l'enceinte, etc.
Bien que, pour une enceinte isolée, le 2 ème principe de la thermodynamique affirme
que son entropie ne peut que croître jusqu'au « désordre maximum », sa valeur
instantanée fluctue constamment un peu autour de ce maximum, du fait du
mouvement brownien des molécules. On peut donc se demander si cette fluctuation
d'entropie (c'est-à-dire d'organisation-désorganisation) n'est pas un exemple de
hasard dans la nature, comme le croît notamment Prigogine.
En fait, il n'en est rien. L'entropie n'existe pas dans la nature : c'est une abstraction
commode pour modéliser l'état d'organisation d'un ensemble de molécules. Ses
fluctuations n'existent que parce qu'on fait des calculs probabilistes sur des
populations de molécules, ce ne sont pas des réalités physiques comme une
variation de l'énergie totale, impossible pour un système isolé.
Les travaux d'Ehrenfest sur des systèmes isolés, à l'équilibre thermodynamique,
constitués d'un grand nombre N de molécules indépendantes, montrent que le
système s'écarte sans cesse de l'équilibre et y revient. Ces travaux modélisent l'état
d'organisation du système et la diffusion de molécules par les transitions d'état d'un
133
processus markovien, modèle théorique arbitraire qui montre (si on lui fait confiance)
que l'entropie peut décroître en dessous de son maximum selon une loi de
probabilité binomiale en 2-N.
Mais les calculs numériques et l'expérimentation ont montré que le temps
nécessaire pour qu'une décroissance non négligeable de l'entropie se produise
(c'est-à-dire pour que le système s'organise davantage) est supérieur à l'âge de
l'Univers. Considérons, par exemple, le cas - très favorable à la décroissance
d'entropie - d'un système constitué de N=100 molécules seulement subissant 1
million de transitions par seconde (10 000 en moyenne par molécule). Pour passer
d'un état d'équilibre, où les N molécules sont réparties aléatoirement dans une
enceinte, à un état plus organisé où elles sont toutes dans une moitié prédéfinie de
l'enceinte, il faut alors environ 10 15 ans, soit environ 70 000 fois l'âge de l'Univers.
Les expériences ont confirmé qu'un système macroscopique isolé ne voit jamais son
entropie décroître de manière mesurable : il ne s'organise pas davantage tout seul.
L'irréversibilité d'une évolution macroscopique d'un fluide (prévue par la
thermodynamique et qui semble contredire l'évolution réversible prévue molécule par
molécule) s'explique théoriquement par le fait que la probabilité pour que toutes ses
molécules reviennent à leur position de départ après un certain temps est
fantastiquement faible. (En fait, cette explication probabiliste n'est pas certaine :
comme toute explication probabiliste, elle est postulée. Heureusement, l'irréversibilité
macroscopique n'a jamais été démentie expérimentalement, personne n'ayant jamais
constaté un événement aussi improbable qu'une tasse de café où on a fait fondre du
sucre et qui se sépare spontanément en café sans sucre et sucre hors de la tasse !)
Conclusions :

Il n'y a pas de hasard dans un phénomène macroscopique résultant de
phénomènes déterministes à l'échelle atomique. Le hasard auquel croient
certains est un hasard par ignorance due à l'impossibilité de mesurer et calculer
les évolutions élémentaires.

Les fluctuations ponctuelles d'une variable statistique comme l'entropie,
regroupant des milliards de réalisations d'une variable à l'échelle moléculaire,
ont une amplitude dont la probabilité varie exponentiellement en raison inverse
du nombre de ces dernières. Elle décroît donc si vite qu'aucune mesure ne peut
en détecter un effet à une échelle accessible aux expériences.
3.1.9.7
Amplification génétique et évolution du vivant vers la complexité
Nous venons de voir que des fluctuations d'entropie d'origine microscopique ne
peuvent avoir d'effet macroscopique. Mais ce que ces fluctuations ne peuvent faire
en physique est possible dans un être vivant, en deux étapes d'amplification :

Des accidents de réplication du génome sont inévitables du fait des solutions
multiples des équations d'évolution de la Mécanique quantique, chacune
associée à une probabilité d'apparition. C'est ainsi que des liaisons chimiques
peuvent s'établir ou non, modifiant ainsi un gène de milliers de bases ou son
expression : il suffit parfois qu'un minuscule radical CH3 de 4 atomes soit lié ou
non pour faire une différence !
Un tel accident de réplication peut ne pas avoir d'effet ; il peut aussi produire un
être non viable, ou souffrant d'une infériorité par rapport à d'autres espèces qui
134
le fera éliminer par la sélection naturelle. Mais il produit parfois un être
parfaitement adapté, qui pourra avoir une descendance.

Du point de vue thermodynamique, la complexification (organisation de plus en
plus poussée) est possible pour des êtres vivants, car ceux-ci sont des systèmes
dissipatifs loin de l'équilibre et le 2ème principe ne s'applique pas.
3.1.9.8
Domaines où on connaît des évolutions chaotiques
Les évolutions chaotiques d'un système peuvent intervenir dans de nombreux
domaines. Exemples :

En physiologie, le fonctionnement synchrone des cellules musculaires du cœur
peut se désynchroniser, provoquant une arythmie accompagnée d'une
tachycardie que l'on soigne par défibrillation et avec des médicaments comme le
Cordarone ou le Sotalex.

En dynamique des populations animales, la densité d'une population dépend de
facteurs internes comme la résistance aux agressions de l'environnement, la
fécondité ou les habitudes de vie, et de facteurs externes comme les ressources
alimentaires, les prédateurs, etc. Les interactions de tous ces facteurs sont
complexes et mal connues. Des modèles mathématiques simplifiés montrent
qu'une densité de population peut être stable, ou varier de manière périodique
ou même chaotique (exemple).

Les propriétés optiques d'un milieu sont affectées par des variations de sa
température, de sa densité ou de sa concentration en particules opaques. De
telles variations affectent la vitesse de propagation de la lumière dans le milieu,
donc son indice de réfraction, et déclenchent des phénomènes d'absorption ou
de diffusion à certaines longueurs d'onde. Si ces variations sont chaotiques, les
images vues à travers le milieu (par exemple en astronomie) peuvent être
fortement perturbées ; c'est ainsi que les mouvements atmosphériques,
l'humidité et la pollution brouillent la vision des télescopes.

La turbulence d'un fluide accroît souvent ses échanges de chaleur ou ses
réactions chimiques avec les parois. Nous avons plus froid, par exemple, dans
un vent en rafales que dans un air calme à la même température. Les poils sur
la peau de certains animaux diminuent les échanges de température et
d'humidité en diminuant la turbulence des mouvements d'air. La peau des
requins a des écailles dont la taille, la forme et la rugosité diminuent fortement
les frottements lorsqu'il nage, augmentant ainsi considérablement l'efficacité de
ses efforts.
3.1.9.9
Exemples de phénomènes chaotiques
3.1.9.9.1
Problème des 3 corps
Le problème proposé en 1885 par le roi Oscar II de Suède et Norvège, avec un prix
au premier scientifique qui le résoudrait, concerne un phénomène conservatif à
solutions chaotiques. Il s'agissait de savoir si le système solaire était stable à long
terme, sur des millions d'années, ou si un corps (planète ou un astéroïde) pouvait
tomber sur le Soleil, entrer en collision avec un autre corps, être éjecté hors du
système, bref changer d'orbite de manière significative.
135
Le gagnant du prix, le mathématicien français Henri Poincaré, étudia les propriétés
générales des solutions éventuelles de ce problème. Il en montra la complexité et
approfondit le cas plus simple où il n'y avait que 3 corps, deux gros comme le Soleil
et une planète, et un très petit par rapport à eux comme un astéroïde, cas appelé
depuis « Problème des trois corps ». Il montra que même dans ce cas simple les
orbites sont trop complexes pour être décrites par une formule explicite. Au XXe
siècle, d'autres mathématiciens complétèrent les travaux de Poincaré, montrant que
dans certains cas l'évolution d'une orbite peut être imprévisible, découverte qui remit
en cause la définition du déterminisme admise à l'époque.
On connaît aujourd'hui des évolutions chaotiques dans de nombreux domaines : la
dynamique des fluides, la météorologie, la chimie des réactions dissipatives et même
la Mécanique quantique. Notons qu'une évolution chaotique peut concerner un
système conservatif aussi bien qu'un système dissipatif.
Voici un exemple d'évolution chaotique issu de [294] : le mouvement du corps
céleste « petit » du problème des 3 corps. Le graphique ci-dessous représente, dans
un référentiel où l'axe horizontal passe par les centres du Soleil S et d'une planète P
et l'axe vertical est une perpendiculaire quelconque au premier, deux trajectoires
A→A' et B→B' du petit corps lorsque celui-ci est parti de points A et B très voisins. On
voit que ces deux trajectoires divergent, la distance finale A'B' étant bien plus grande
que la distance initiale AB.
136
A'
B
P
A
S
B'
Divergence des trajectoires d'un petit corps attiré par le Soleil S et une planète P
3.1.9.9.2
Sensibilité d'une évolution aux conditions initiales - Chaos déterministe
Nous avons vu que certains phénomènes régis par des systèmes d'équations
d'évolution déterministes présentent une extrême sensibilité aux conditions initiales :
une toute petite variation de celles-ci se traduit par une variation considérable du
résultat final, parfois rapidement, parfois après un certain temps ; l'évolution d'un tel
phénomène est imprévisible. On parle alors de « chaos déterministe ». L'évolution et
le résultat d'un phénomène de chaos déterministe sont imprévisibles avant le départ.
Le graphique ci-dessous illustre la sensibilité aux conditions initiales en représentant
les valeurs successives de la suite xn+1 = 2xn (modulo 1) (dite "de Bernoulli" et citée
par [26] pages 96 à 105), valeurs calculées en multipliant par 2 la valeur précédente
puis en retenant seulement la partie après la virgule, comme dans l'exemple suivant :
x0 = 0.7 ; x1 = 2*0.7 (modulo 1) = 0.4 ; x2 = 2*0.4 (modulo 1) = 0.8, etc.
137
On a représenté sur le graphique :
 en bleu, la suite commençant à x0 = 0.7 ;
 en rouge, la suite commençant à x0 = 0.697, valeur très proche de 0.7.
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
58
56
54
52
50
48
46
44
42
40
38
36
34
32
30
28
26
24
22
20
18
16
14
12
8
10
6
4
2
0
0
Divergence par chaos déterministe de la suite x n+1 = 2xn (modulo 1)
pour x0 = 0.7 et x0 = 0.697
On voit que les deux suites, pratiquement confondues jusque vers n = 4, divergent
ensuite de plus en plus. Ensuite (surprise !) elles convergent l'une après l'autre vers
zéro, valeur atteinte respectivement pour n = 52 et n = 53 dont elles ne peuvent plus
ensuite s'écarter [34]. A partir d'une formule de calcul de la suite parfaitement
déterministe au sens traditionnel, nous avons ainsi créé une évolution irréversible,
car en partant de x100 = 0 (par exemple) on ne peut retrouver de terme x k0, ni avec
k > 100, ni avec k < 100.
Il est important de noter que la petite différence initiale à l'origine de la grande
différence d'évolution ultérieure peut provenir aussi bien d'une différence effective
des valeurs de la variable que d'une imprécision dans sa mesure, sa représentation
décimale ou son calcul.
3.1.10 Turbulence
Un phénomène physique turbulent :

A un comportement de chaos déterministe, donc ne devant rien au hasard. Il
apparaît dans la plupart des systèmes non linéaires par franchissement de
bifurcations successives dans l'espace des phases.

Est irrégulier à petite échelle (au sens dimension ou durée), mais plus régulier à
grande échelle, les comportements aux diverses échelles étant interdépendants.
Cette différence de comportement entre échelles caractérise la non-linéarité.

N'a ni régularité ni mémoire des états passés, ce qui en rend l'évolution
imprédictible malgré le caractère déterministe des équations différentielles de
138
son modèle mathématique (qui sont parfois des équations aux dérivées
partielles non linéaires). En pratique, l'intégration même numérique de ces
équations différentielles peut être si difficile qu'on recourt à des approximations
statistiques ou à une étude purement expérimentale.
L'évolution d'un système devient turbulente du fait de valeurs de certains paramètres
qui franchissent un seuil critique ; la loi d'évolution bifurque alors dans l'espace des
phases. Le diagramme des phases d'un fluide turbulent présente des bifurcations
successives correspondant à des valeurs critiques des paramètres de bifurcation.
L'étude générale des bifurcations relève de la théorie des bifurcations. Les conditions
d'établissement, de maintien et de disparition des états entre deux bifurcations
successives relèvent de la théorie de la stabilité. Ces deux théories sont
déterministes, dénuées de hasard.
Les facteurs qui facilitent l'établissement d'un écoulement turbulent d'un fluide sont
un nombre de Reynolds grand [293], un nombre élevé de degrés de liberté et la nonlinéarité du système d'équations différentielles de son modèle.
Animations montrant de la turbulence : [300].
3.1.11 Le déterminisme étendu
Le déterminisme philosophique promettait de prédire toutes les évolutions, avec
leurs résultats, à un horizon arbitrairement lointain ; il promettait aussi la
reconstitution du passé, mais ces promesses étaient utopiques.
Le déterminisme scientifique a permis plus de conformité aux lois de la nature, en
réduisant les promesses de prédiction à celles du postulat de causalité et en ne
promettant plus de reconstituer le passé.
Le déterminisme statistique a permis de réduire le hasard des évolutions de
physique quantique au choix d'un élément d'un ensemble prévisible où il a une
probabilité d'apparition calculable.
Nous avons besoin d'un principe de déterminisme adapté à toutes les évolutions de
la nature, connues ou à découvrir. Un tel principe doit aussi être compatible avec le
déterminisme scientifique et le déterminisme statistique, dont on ne peut nier la
valeur. Nous allons en construire un par induction à partir de propriétés de l'Univers,
et nous l'appellerons « déterminisme étendu ».
3.1.11.1
Propriétés des lois de l'Univers
3.1.11.1.1 Uniformité des lois de la nature
La nature que les lois physiques décrivent est uniforme. Cette uniformité de l'Univers
a des conséquences fondamentales, comme la conservation de la quantité de
mouvement, du moment cinétique, de l'énergie et de la charge électrique. Voici des
caractéristiques de cette uniformité.

L'espace est homogène et isotrope : il a les mêmes propriétés en tout point et
dans toutes les directions. Cette affirmation est le « Principe cosmologique »,
posé en tant qu'hypothèse pour simplifier des calculs de Relativité Générale.
139
L'homogénéité et l'isotropie de l'Univers avant et après le « Big Bang » sont
prouvées avec une très grande précision par la découverte en 1965 du fond
diffus cosmologique [233] : la densité d'énergie de l'Univers primitif était la même
en tous ses points, mais il se produisait (et il se produit toujours) des fluctuations
quantiques dont sont nées les galaxies [313]. La théorie de l'inflation explique
l'extrême homogénéité constatée aujourd'hui à grande échelle (100 millions
d'années-lumière et plus).

Les lois physiques sont stables (invariantes) dans le temps et l'espace. On le
voit, par exemple, en astronomie : regarder loin, à 3 milliards d'années-lumière,
c'est voir à cet endroit-là ce qui se passait il y a environ 1 milliard d'années [38] ;
et on constate, alors, que les lois physiques étaient les mêmes que sur Terre
aujourd'hui. Cette stabilité est l'origine de la règle de stabilité associée au
postulat de causalité dans le déterminisme scientifique.
Même lorsqu'une loi varie avec le temps il y a toujours une loi stable qui décrit ou
même explique cette variation. Exemple : le rayon de l'Univers varie [38] ; on
s'en est aperçu en 1927 en découvrant son expansion, matérialisée par une
vitesse d'éloignement des galaxies lointaines qui croît avec leur distance, mais
reste constante dans toutes les directions. Puis on s'est aperçu que la loi de
croissance de ce rayon variait elle-même : l'expansion de l'Univers est de plus
en plus rapide. Enfin, on a prouvé par raisonnement qu'au commencement de
l'Univers, une petite fraction de seconde après le « Big Bang » et pendant un
court très instant, sa vitesse d'expansion a été extraordinairement rapide, des
milliards de fois plus rapide que la vitesse de la lumière [38].
(Remarque : la vitesse d'une expansion de l'espace n'est en rien limitée par celle
de la lumière, c, car elle ne déplace ni matière ni énergie [313].)

Les lois physiques de l'Univers sont cohérentes (non contradictoires) ; elles se
complètent sans jamais se contredire. Elles respectent trois principes
fondamentaux de la logique [99], formulés par induction à partir d'observations
de la nature : principe de non-contradiction, principe du tiers exclu et principe
d'identité. Elles respectent aussi le principe d'homogénéité.
Nous savons, en plus, que certaines lois de la nature s'appliquent à un certain
niveau de détail sans jamais contredire une loi d'un autre niveau. Exemples :
 Les lois de la thermodynamique, par exemple, s'appliquent à un niveau
macroscopique sans contredire les lois mécaniques des mouvements et
chocs des molécules du niveau microscopique.
 Le Principe de moindre action de Maupertuis [62] constitue une loi globale
de mouvement qui ne contredit pas les lois locales de Newton.

La nature est complète : elle a toutes les lois qu'il faut pour réagir à toutes les
situations et expliquer tous les phénomènes ; c'est le postulat de détermination
complète de Kant. Il n'y a pas de situation sans loi d'évolution, immuable.
3.1.11.1.2 Postulat de causalité
L'existence et la stabilité des lois de l'Univers nous suggèrent le postulat de causalité
qu'on peut résumer sous la forme :
Tout ce qui existe et tout ce qui se produit dans l'Univers a une cause et obéit à
des lois.
140
Ce postulat est légitime dans la mesure où il est vérifié par d'innombrables
expériences et n'est contredit par aucune (voir la construction empirique d'une
axiomatique [241]). D'après la définition de la vérité scientifique du rationalisme
critique ce postulat peut être considéré comme une loi de causalité jusqu'à preuve du
contraire.
Phénomènes ou situations inexpliqués
Le fait que certains phénomènes ou situations soient inexpliqués ne contredit pas le
déterminisme, il nous incite à faire des efforts de recherche pour les comprendre ; il
nous incite aussi à rester vigilants pour le cas où la découverte d'un fait inexplicable
dans le cadre d'une loi de calcul ou d'évolution censée l'expliquer, ou qui la contredit,
nous oblige à modifier ou remplacer cette loi. On peut aussi envisager d'attribuer un
phénomène inexpliqué ou une situation inexpliquée à l'application d'une restriction du
postulat de causalité.
Fluctuations quantiques
Ce phénomène naturel (décrit en détail plus bas) ne respecte ni le postulat de
causalité, ni la règle de stabilité ! Il survient brusquement, de manière imprévisible,
sans cause identifiable. C'est une fluctuation, instabilité dans le temps traduisant
l'impossibilité de définir l'énergie en un point de l'espace vide avec une incertitude
sur l'énergie et un intervalle de temps tous deux arbitrairement petits. Ce phénomène
important, puisqu'il est cause de la naissance des galaxies peu après le Big Bang,
échappe donc au déterminisme ; il est dû au hasard, si on définit celui-ci comme
René Thom. Du point de vue prédictibilité, on ne peut prévoir ni où une fluctuation se
produira, ni quand, ni avec quelle variation d'énergie. Et à part le cas de l'évaporation
des trous noirs, ce n'est pas une évolution car chaque fluctuation s'annule d'ellemême rapidement en restituant l'énergie qu'elle a emprunté à l'espace environnant.
3.1.11.2
Définition du déterminisme étendu
Dans la suite de ce texte nous allons donc postuler l'uniformité, la stabilité, la
cohérence et la complétude des lois physiques de l'Univers, et nous définirons le
déterminisme étendu comme suit :
Le déterminisme étendu est le principe qui régit l'évolution d'une
cause à ses conséquences sous l'action de toute loi naturelle.
Cet énoncé du principe de déterminisme étendu doit être compatible avec la
définition du déterminisme scientifique donnée précédemment (condition nécessaire
et suffisante et règle de stabilité) et avec celle du déterminisme statistique, bien que
subsistent les obstacles à la prédiction cités. Le déterminisme statistique (introduit
précédemment et décrit en détail plus bas) complète le déterminisme scientifique
pour constituer le déterminisme étendu.
141
3.1.11.2.1 Définition constructive du déterminisme étendu
D'habitude, la définition d'un mot décrit sa signification. Ne pouvant me contenter
d'une telle définition descriptive pour le déterminisme étendu, j'utilise ci-dessous une
définition constructive permettant, si nécessaire, une extension infinie de cette notion
déduite de propriétés des lois de l'Univers.
Construction
Le déterminisme étendu, comprenant le déterminisme scientifique et le déterminisme
statistique, peut à ma connaissance régir toutes les lois de la physique, pour faire
toutes les prédictions d'évolution possibles compte tenu des obstacles cités.
Si toutefois on trouve une loi d'évolution de la nature, respectant la règle de stabilité,
qui échappe à la fois au déterminisme scientifique et au déterminisme statistique, on
incorporera ses règles au déterminisme étendu comme suit.

Nous prenons toutes les lois d'évolution de l'Univers, une par une, dans un ordre
quelconque.

Considérons une de ces lois. Si sa règle d'évolution fait déjà partie du
déterminisme étendu, nous l'ignorons et passons à la suivante ; sinon nous
incorporons cette règle d'évolution à la définition du déterminisme étendu.

Chaque fois que nous incorporons la règle d'évolution d'une loi supplémentaire,
nous vérifions sa cohérence avec les règles déjà incorporées, de manière à
rester conforme à la nature, dont aucune règle d'évolution n'en contredit une
autre. En principe, cette vérification est inutile si les énoncés des lois respectent
bien le postulat de cohérence des lois de l'Univers.
La définition du déterminisme étendu sera ainsi complétée progressivement, au fur et
à mesure des découvertes scientifiques… si nécessaire.
3.1.11.2.2 Validité de cette approche
Le déterminisme étendu défini comme ci-dessus constitue une axiomatique [67] dont
les axiomes (règles de faits) sont les conditions initiales des diverses lois d'évolution,
et les règles de déduction (d'inférence) sont les règles d'évolution correspondantes,
selon la sémantique suivante : une situation décrite par les valeurs d'un ensemble de
variables S évolue selon un ensemble de règles R(S). R(S) ne comprend qu'une
seule loi d'évolution pour chaque variable de S, sauf en physique quantique [325] où
plusieurs lois peuvent être déclenchées simultanément.
La validité théorique de cette approche de définition constructive a été étudiée et
justifiée par les logiciens, qui ont montré comment on peut compléter une
axiomatique au fur et à mesure qu'apparaissent des vérités ou des règles de
déduction qu'on ne peut déduire des axiomes existants, mais que la sémantique du
sujet impose de prendre en compte. Ce point est abordé dans [92].
La validité pratique de cette approche résulte de son respect de la méthode
scientifique, qui ajoute des lois nouvelles aux lois existantes ou les remplace, au fur
et à mesure du progrès des connaissances. Concernant le déterminisme étendu, on
ajoute de nouvelles règles d'évolution des causes aux conséquences au fur et à
142
mesure que de nouvelles connaissances l'exigent, en excluant les redondances et
les contradictions.
Par construction, le déterminisme étendu n'exclut ni les distributions statistiques de
valeurs, ni l'imprécision, ni l'indétermination de la Mécanique quantique.
Enfin, la définition constructive du déterminisme étendu n'en fait pas un système
interprétatif.
3.1.11.2.3 Universalité du déterminisme étendu – Monisme - Mécanisme
L'universalité du déterminisme étendu résulte de sa définition constructive, qui prend
bien en compte toutes les lois de l'Univers, toutes celles qui sont connues à un
instant donné et toutes celles que l'on découvrira, au fur et à mesure de leur
découverte.
Le déterminisme étendu régissant toutes les lois d'évolution et de traduction de la
nature en tant que principe unificateur peut être considéré comme un monisme,
système philosophique qui réduit l'ensemble des lois de l'Univers à un seul principe
général.
En tant que théorie philosophique d'évolution, le déterminisme étendu est un
mécanisme, système qui explique les évolutions de l'Univers ou de parties de
l'Univers uniquement par des causes matérielles efficaces [39], c'est-à-dire des
raisons suffisantes du devenir. Cette explication exclut toute cause finale [39].
3.1.11.2.4 Limites de la règle de stabilité du déterminisme
La définition du déterminisme scientifique traditionnel prévoit la stabilité de la loi
d'évolution. Mais cette hypothèse n'est pas toujours pertinente. C'est ainsi que,
lorsque les astronomes ont découvert que l'Univers est en expansion (après des
siècles de croyance à priori en un espace qui n'évolue pas), ils ont commencé par
postuler que sa vitesse d'expansion (le nombre d'années-lumière supplémentaires
ajoutées à son rayon chaque année) est constante [111]. Puis ils se sont aperçus
que ce postulat était doublement faux, car nous avons la preuve que :

Dans la première fraction de seconde (environ 10 -35 seconde) après sa
naissance, la croissance de l'Univers a été extraordinairement rapide, son rayon
croissant des milliards de fois plus vite que la vitesse de la lumière : ce fut la
courte phase d'inflation [313].

De nos jours, la vitesse de croissance est bien plus faible (on ne parle plus
d'inflation, on parle d'expansion), mais elle augmente : le rayon de l'Univers
(environ 47 milliards d'années-lumière, correspondant à un âge de 13.8 milliards
d'années) croît de plus en plus vite. [111]
Connaître la vitesse d'expansion de l'Univers et sa variation depuis le Big Bang est
important pour déterminer l'âge de l'Univers et mieux comprendre les phénomènes
physiques qui interviennent encore de nos jours.
Conclusion : lorsqu'on suppose qu'une loi d'évolution est stable il faut être
prudent, et d'autant plus prudent que l'on considère une période longue.
143
La règle de stabilité des lois du déterminisme scientifique, reprise dans le
déterminisme statistique et le déterminisme étendu, n'a pas besoin d'être absolue.
Son respect n'est nécessaire que pour assurer la cohérence des évolutions dans le
temps et l'espace, ce qui exige :

que l'évolution d'une situation S ne dépende que des valeurs initiales de ses
variables, pas de l'instant ou de la position de départ (qu'elle soit la même pour
deux situations S et S' déduites l'une de l'autre par un déplacement dans le
temps ou l'espace) ;

qu'une évolution commencée se poursuive avec la même loi pendant toute sa
durée et dans tout l'espace concerné.
Considérations relativistes
J'explique, en décrivant les propriétés relativistes de l'espace-temps dans l'annexe
de ce livre, qu'un événement A ne peut être cause d'un événement B que si, dans le
diagramme d'espace-temps, B est à l'intérieur du cône de lumière de A, c'est-à-dire
si la lumière partant du lieu de l'événement A et se propageant à sa vitesse
habituelle (c = 299 792 458 m/s dans le vide) a le temps d'arriver au lieu de
l'événement B avant la survenance de ce dernier.
Si B est hors du cône de lumière de A, il ne peut avoir été causé par A ou l'avoir
influencé, et des lois physiques différentes pourraient s'appliquer aux lieux et instants
de A et B sans conséquence sur la cohérence de l'Univers pour des observateurs en
A et B. Par contre un autre observateur, C, capable de voir les deux événements A
et B (donc situé dans leurs deux cônes de lumière) pourrait s'apercevoir d'une
éventuelle différence entre les lois de la nature s'appliquant en A et en B si cette
différence n'était pas négligeable.
Donc, vue de la Terre à notre époque, une éventuelle variation d'une loi de l'Univers
peut être visible ou invisible, selon son emplacement et sa date dans l'espace-temps
de l'Univers.
L'expansion de l'Univers visible se produit à la vitesse de la lumière, c [111]. Elle
n'affecte que l'espace entre amas de galaxies : la gravitation qui domine dans ces
amas en empêche l'expansion. Le rayon R de l'Univers visible est 47 milliards
d'années-lumière ; la lumière a mis 13.8 milliards d'années pour nous en parvenir (du
fait de l'expansion). Un événement actuel situé à plus de 9.1 milliards d'annéeslumière de notre galaxie nous restera à jamais inconnu, sa lumière ne pouvant nous
atteindre parce que la vitesse d'expansion à cette distance-là est déjà égale à c et
augmente au-delà. Une éventuelle différence de loi physique entre le lieu et l'époque
de cet événement et notre Terre à notre époque serait sans conséquence pour nous
et indétectable.
La règle de stabilité n'a pas besoin d'être absolue
Une éventuelle différence entre lois de la nature peut rester invisible pour nous et
notre déterminisme, soit pour des raisons relativistes, soit pour des raisons
d'éloignement, soit tout simplement si ses effets sont négligeables aux échelles (de
temps, de longueur, d'énergie, etc.) où nous pouvons en être impactés. La règle de
stabilité n'a donc pas besoin d'être absolue.
144
3.1.11.3
Stabilité des lois d'évolution et situations nouvelles
Nous examinons dans cette section une restriction possible des exigences du
postulat de causalité. Une étude approfondie de ce postulat est disponible plus bas.
3.1.11.3.1 Apparition d'une loi d'évolution
La règle de stabilité du déterminisme scientifique implique ceci : à l'apparition d'une
situation donnée S, une certaine loi physique d'évolution L est appliquée
automatiquement par la nature ; et si la même situation S réapparaît à un autre
moment et/ou dans un autre lieu, c'est la même loi d'évolution L qui sera appliquée.
Mais nous n'avons nullement postulé que la loi L doit exister avant la première
survenance de la situation S. Si elle existait avant, cette loi serait, au moins
provisoirement, sans objet ; un spiritualiste comme Platon pourrait en envisager
l'existence, un matérialiste non. Pour l'homme, une loi physique est une abstraction
destinée à décrire un phénomène ou son évolution, ou à calculer un résultat. Si
l'homme imagine une loi s'appliquant à des situations qui ne se sont jamais produites
et ne sont pas des conséquences futures certaines de situations existantes ou
passées, comme il peut toujours le faire, cette loi restera pure spéculation jusqu'à ce
que ses conditions d'application soient réunies, ce qui arrivera ou non. Donc :

Nous limiterons la période d'application de la règle de stabilité d'une loi
d'évolution au temps qui suit l'apparition de la première situation où elle
s'applique.

Une loi d'évolution d'une situation qui ne s'est jamais produite, et dont la
survenance n'est pas certaine, est pure spéculation car elle est sans objet ; et
son énoncé est infalsifiable.
3.1.11.3.2 Restriction du postulat de causalité
En affirmant qu'en l'absence de cause la conséquence n'a pas lieu, notre postulat de
causalité exclut la possibilité de situations « vraiment nouvelles », sans cause
physique existante ou ayant existé dans notre Univers : toute situation a une chaîne
de causalité remontant jusqu'à la naissance de l'Univers ; c'est une conséquence
déterministe de cette situation initiale.
Il ne peut exister de chaîne de causalité indépendante, car si elle avait
commencé après la naissance de l'Univers son début aurait résulté d'un
enchaînement de situations existant avant elle, ce qui est contradictoire ; et si elle
avait commencé avant, elle aurait été prise en compte lors de la naissance de
l'Univers, événement ponctuel dans l'espace et le temps [313]. Du reste, imaginer un
avant le Big Bang est pure spéculation, nos connaissances de physique ne
remontent pas si loin.
Or la contrainte « pas de situation vraiment nouvelle » n'est en rien nécessaire à la
stabilité des lois d'évolution dans le temps et l'espace. Celle-ci exige seulement
qu'une fois apparue lors de son application à une situation S, une loi s'applique à
l'identique à toute situation S' déduite de S par une translation dans le temps et/ou
l'espace. S'imposer qu'il n'y ait jamais de situation nouvelle dans l'Univers est un
apriori inutile du moment que :

la structure de cette situation (ses composantes et leurs relations) ne contredit
pas de loi de structure existante ;
145

son évolution postérieure ne contredit pas de loi d'évolution existante.
Bref, notre principe de causalité est fait pour prévoir l'avenir à partir du passé. Il
n'exige nullement que la chaîne de causalité remonte à l'infini dans le passé, tant pis
pour les philosophes qui ne s'en sont pas aperçu et se sont crus obligés de postuler
une « cause première », une « cause sans cause » comme Dieu.
Rien n'interdit que l'Univers ait toujours existé, si toutes ses lois d'évolution sont
stables après leur première application. Rien n'oblige une loi d'évolution physique
d'avoir existé avant la première fois où il existe une situation à laquelle elle doit
s'appliquer ; la physique n'a pas besoin des Idées éternelles de Platon.
Nous allons donc, dans le reste de cette section, conjecturer que des situations
vraiment nouvelles peuvent apparaître dans l'Univers, pour voir si cela permet une
explication plausible de situations constatées sans en contredire d'autres ; nous
appellerons apparitions de telles situations. Une apparition est nécessairement
accompagnée de sa loi d'évolution, qui peut être nouvelle sans contredire de loi
préexistante puisqu'elle s'applique à une situation nouvelle.
Affirmer qu'une situation est une apparition parce que nous n'en connaissons aucune
cause et qu'elle n'a pas d'équivalent peut, évidemment, résulter d'une ignorance de
notre part, et se trouver démenti ultérieurement ; l'existence d'apparitions n'est donc
qu'une conjecture, conséquence d'une restriction du postulat de causalité.
Voici quelques cas que l'on peut considérer aujourd'hui comme des apparitions.
3.1.11.3.3
Exemples d'apparitions
La naissance de l'Univers
Rien ne prouve qu'elle résulte d'une situation préexistante dans un Univers extérieur
préexistant, par application de lois préexistantes. On peut conjecturer que les lois
d'évolution de l'Univers sont nées avec lui, car leur existence antérieure est pure
spéculation indémontrable et leur existence ultérieure une certitude.
Nous savons [313] que, au commencement de l'Univers, des lois fondamentales de
notre Univers actuel ne s'appliquaient pas, notamment parce que des concepts de
base comme le temps et l'espace étaient d'une autre nature qu'aujourd'hui
(discontinue, quantifiée…) ; mais nous ne savons pas (ou pas encore) quelles lois
s'appliquaient. Ce commencement peut donc être considéré comme une apparition,
la première.
L'inflation
La courte période dite d'inflation [313], peu après le commencement de l'Univers, a
vu une expansion de l'Univers fantastiquement rapide, dilatation de l'espace des
milliards de fois plus rapide que la vitesse de la lumière et accompagnée de création
de matière.
Nous ne connaissons pas la cause précise de l'inflation. Nous pouvons seulement
conjecturer qu'elle est due à une fluctuation quantique. Cette énergie a pu apparaître
sans cause, pendant un temps très bref, par transformation d'énergie potentielle du
milieu environnant. L'inflation s'est terminée par la situation que nous appelons Big
146
Bang, elle-même suivie d'une expansion de l'Univers à un rythme beaucoup plus lent
et sans création de matière, expansion qui se poursuit de nos jours.
Les fluctuations quantiques
Ce phénomène (rappelé plus loin) est une variation d'énergie en un point de l'espace
vide sans cause autre que l'affirmation « l'énergie du vide est instable à cause
du principe d'incertitude de Heisenberg », ce qui n'explique rien. Ce n'est pas une
véritable évolution, car « l'emprunt » d'énergie ΔE à l'espace environnant (matérialisé
par l'apparition d'une paire particule + antiparticule) est restitué au plus tard Δt
secondes après par fusion d'une particule et d'une antiparticule, en respectant la
limite ΔE.Δt = ½ä. C'est donc une apparition.
3.1.11.3.4 Conséquences philosophiques de la possibilité d'apparitions
Restreindre la contrainte de stabilité en admettant la possibilité d'apparitions a
d'importances conséquences philosophiques. Exemples :

Certaines chaînes de causalité peuvent apparaître après la naissance de
l'Univers. L'opposition entre matérialisme (qui refuse les phénomènes sans
cause actuelle ou passée interne à l'Univers) et spiritualisme (qui croit possibles
des phénomènes dont la cause est externe à l'Univers, comme la volonté d'un
Créateur) n'est plus aussi totale.

Des situations et des phénomènes peuvent rester inexpliqués, parce que ce sont
des apparitions.

L'ensemble des lois d'évolution de l'Univers peut s'enrichir progressivement.
Certaines situations ou évolutions considérées comme impossibles avec les lois
physiques actuelles peuvent ne plus l'être éternellement.

Des lois de conservation comme la conservation de l'énergie peuvent être
violées à l'occasion d'une apparition (détails).
3.1.11.4
Conclusions sur le déterminisme étendu et la causalité
3.1.11.4.1 Déterminisme étendu : un principe et un objectif
L'expression « déterminisme étendu » désigne un principe régissant les lois
d'évolution de la nature. L'homme l'applique pour prévoir le futur. Nous savons que le
caractère déterministe n'entraîne pas toujours la prédictibilité ; c'est ainsi que l'action
d'un grand nombre de processus déterministes simultanés ne change pas leur nature
globale déterministe, mais rend inaccessible par excès de complexité la prédiction du
futur.
Le déterminisme étendu constitue un pont entre science et philosophie destiné à
mieux comprendre ce qui est et mieux anticiper ce qui sera.
3.1.11.4.2 Causalité, déterminisme étendu et prédictions d'évolution physique
Que mes lecteurs soient ou non complètement d'accord avec mes définitions du
déterminisme scientifique, du déterminisme statistique, du déterminisme étendu, du
hasard et du chaos n'est pas indispensable à la lecture de ce livre. Seule compte la
connaissance des limites de la prédiction des évolutions physiques, avec ce qu'elle
implique de culture scientifique.
147
Voici un résumé d'affirmations concernant la causalité et le déterminisme étendu des
lois de la nature.

Une cause est une situation à un instant donné, avec tous ses paramètres.
Cette définition n'est pas triviale. Considérons une situation de Mécanique
quantique avec superposition d'états qui évolue par décohérence pour devenir
un état unique. On pourrait penser qu'il s'agit d'un cas où plusieurs causes (les
états superposés) ont évolué vers une conséquence unique, ce qui constituerait
une causalité différente de celle où une cause unique évolue vers un ensemble
de conséquences. En fait, la superposition d'états constitue bien une situation à
considérer dans son ensemble, donc une cause unique. (Développement)

La conséquence d'une cause est tirée, automatiquement et immédiatement, par
la nature sous forme d'un ensemble d'évolutions simultanées de certaines
variables (si aucune n'était affectée, il n'y aurait pas d'évolution).
 Cet ensemble d'évolutions peut ne comprendre qu'une évolution unique ou
comprendre plusieurs évolutions simultanées en superposition. Cette
superposition prend fin par une décohérence, au bout d'un temps en général
court, et d'autant plus court que le système considéré interagit fortement
avec son environnement et que les états superposés sont différents, rendant
ainsi la superposition instable.
 La décohérence est le seul cas d'évolution, dans la nature, où le hasard
intervient (par déterminisme statistique), si l'on considère les fluctuations
quantiques comme étant des phénomènes sans cause préalable qui ne sont
pas des évolutions, parce qu'ils reviennent toujours à l'état initial sauf dans
le cas des trous noirs qui s'évaporent. Et même la décohérence s'explique
sans hasard, de manière déterministe, avec la théorie de Hugh Everett.

(Voir en fin de texte la table résumant les cas d'imprédictibilité)
Une particule peut parcourir une infinité de trajectoires à la fois, solutions de
l'équation de Schrödinger, autour d'une trajectoire la plus probable calculée
en pondérant chacune des trajectoires individuelles avec sa probabilité.
Cas particulier intéressant : un ensemble de particules décrites par un état
quantique global, comme une paire de photons corrélés (on dit aussi
"intriqués"), conserve certaines propriétés de cet état global même lorsque
les particules s'éloignent les unes des autres. Si un événement affecte alors
l'une des particules (exemple : l'absorption d'un photon de l'ensemble
intriqué) ses conséquences sont propagées instantanément à toutes les
autres particules « à une vitesse infinie » : on dit qu'il y a non-séparabilité.

Dans la nature, l'instabilité peut constituer une cause d'évolution.
 L'instabilité peut résulter d'une énergie cinétique traduisant la température,
source de l'agitation incessante appelée mouvement brownien.
 L'instabilité peut se manifester par des fluctuations énergétiques ; il s'agit
alors d'une indétermination régie par le principe d'incertitude.
 L'instabilité des systèmes non linéaires (par exemple les systèmes
dissipatifs comme les êtres vivants, en déséquilibre thermodynamique), peut
être source d'auto-organisation (comme l'évolution des espèces).
148


L'instabilité peut résulter d'une solution particulière d'un modèle d'évolution,
comme l'inflation de l'Univers qui résulte de la Relativité Générale [313].
L'instabilité peut résulter de la nature même d'un système dynamique ; ses
lois d'évolution peuvent changer en certains points de bifurcation. [281]

La nature ne connaît pas le concept humain de « résultat d'une évolution » et
elle n'a pas de finalité (contrairement à la doctrine spiritualiste).

Par définition, un résultat est l'ensemble des valeurs des variables qui nous
intéressent, nous hommes, considérées à un instant donné. Il peut venir d'une
ou plusieurs des évolutions déclenchées par une cause donnée.

Une cause donnée ne fait que déclencher un ensemble d'évolutions, dont elle ne
garantit ni la durée, ni la prédictibilité des résultats, ni la précision de chaque
résultat, préoccupations strictement humaines.

Chaque évolution déclenchée est gouvernée par une loi physique, selon le
principe déterministe « les mêmes causes produisent les mêmes effets »,
principe qui implique ce qui suit :
 La stabilité (l'invariance) des lois physiques dans le temps et l'espace.
 L'absence de hasard dans le choix de la loi unique à appliquer.
 En Mécanique quantique, lors d'une évolution dont le modèle peut avoir
plusieurs solutions, celles-ci constituent un ensemble prédéterminé, dont
chaque élément a une probabilité connue d'apparaître si on fait un grand
nombre d'expériences identiques.


Ce choix statistique d'une valeur est donc un type d'évolution naturelle
particulier, faisant passer d'une superposition de valeurs à une valeur
unique. C'est le seul cas, dans la nature, où le hasard intervient ; et même
lui disparaît avec la théorie à univers multiples de Hugh Everett.
Dans le cas d'une bifurcation, la loi choisie dépend d'un paramètre de
contrôle qui a une valeur critique au point de bifurcation.
En cas d'évolution sensible aux conditions initiales, le résultat est
imprédictible à long terme au départ du fait d'une amplification
mathématique d'inévitables imprécisions physiques.

La nature a toutes les lois qu'il faut pour réagir à toutes les situations. Elle
« n'improvise » jamais de conséquence et n'en « oublie » jamais.

Il n'y a pas dans l'Univers de situation parfaitement stable pour l'éternité,
situation sans loi d'évolution quelle que soit la variable d'état considérée.

Les lois physiques constituent un ensemble cohérent : leurs effets se complètent
sans jamais se contredire.
Exemple : les différentes trajectoires éventuelles d'une particule unique, qui les
emprunte toutes à la fois, sont parcourues à des vitesses telles que la particule
arrive en une fois à une destination unique, pas à plusieurs dates dépendant des
diverses trajectoires. Mais des différences de longueur de trajectoires peuvent
produire des interférences.
149

La nature ignore les concepts d'échelle d'espace ou de temps, qui ne sont que
des abstractions commodes de l'esprit humain : c'est le principe de
correspondance.
 Une loi physique s'applique à toutes les échelles, mais ses effets peuvent
être négligeables ou trop difficiles à calculer à certaines échelles.
 Certains phénomènes sont modélisés par des structures géométriques dites
fractales, qui ont la même forme quelle que soit l'échelle, c'est-à-dire « le
grossissement ».

Les lois physiques respectent un certain nombre de symétries (invariances)
résultant de l'uniformité de l'Univers (homogénéité du temps et de l'espace,
isotropie), de la symétrie droite-gauche de l'espace, etc.
Il y a aussi des concepts universels, qui seraient les mêmes aussi pour des
habitants d'une autre galaxie : nombre entier, point, ligne droite, etc., ainsi que
des principes de logique [99]. Le déterminisme ne peut que les respecter.

La causalité et le déterminisme tiennent compte de la Relativité, de la
Mécanique quantique, de l'Electrodynamique quantique et de la
Chromodynamique quantique, dont les lois sont des lois de la nature.

La causalité et le déterminisme s'appliquent aux situations et aux évolutions
physiques de la nature, pas à la pensée humaine. Nous allons voir ci-dessous
que celle-ci est non déterministe et imprévisible.
Conclusions
Ce n'est pas à la nature de s'adapter à notre besoin de représentations mentales
simples, c'est à nous d'adapter celles-ci et leur échelle à la nature, même si elles
sont abstraites, probabilistes ou imprécises.
Le déterminisme régit l'évolution qui résulte de la cause initiale ; il ne garantit pas
que le résultat de cette évolution puisse être prédit avant, ou mesuré après avec une
précision arbitraire : le déterminisme, toujours respecté par les lois de la nature, ne
garantit ni la prédictibilité du résultat ni la précision de sa mesure ; il garantit
seulement que la cause déclenche une évolution selon la loi qui s'applique.
Voir aussi Ensemble de définition d'une loi déterministe.
Voir en fin de texte la table résumant les cas d'imprédictibilité.
150
3.2
Imprédictibilité de la pensée humaine
Nous avons vu ci-dessus à propos de la complexité que les phénomènes des êtres
vivants, qu'ils soient physiologiques ou psychiques, reposent sur les mécanismes
physiques des cellules, chacun déterministe et à évolution et résultat prévisibles.
Le déterminisme et la prédictibilité s'entendent ici au sens du déterminisme
étendu, à cause du caractère probabiliste de l'établissement et de la rupture de
nombreuses liaisons chimiques intervenant en biologie.
Mais le nombre de ces phénomènes physiques et leurs innombrables interactions
rendent les phénomènes du vivant d'une redoutable complexité. C'est cette
complexité qui a expliqué ci-dessus l'imprévisibilité de la pensée humaine, qui
s'ajoute à une influence permanente du subconscient qui échappe à notre
conscience. Voyons quelques détails.
D'après une interprétation simpliste de la doctrine matérialiste, la pensée est un
simple aspect de mécanismes des neurones : établissement et ruptures de
connexions par synapses, et communications à travers ces synapses. Ces
mécanismes sont eux-mêmes basés sur des réactions chimiques régies par le
« logiciel » génétique. Le fonctionnement de celui-ci n'est que l'interprétation par
notre esprit de processus de biologie moléculaire, science exacte déterministe (au
sens étendu) basée sur la physique quantique [325].
Ce logiciel génétique coordonne des milliers de réactions chimiques, qui dépendent
d'innombrables paramètres appartenant à des domaines dont je ne peux citer que
quelques-uns : perceptions remontant des sens et du corps vers le cerveau, santé du
corps, informations mémorisées dans les neurones, etc. Ces milliers de réactions
interdépendantes donnent aux mécanismes physiologiques de la pensée une
immense complexité.
C'est ainsi que, d'après les recherches récentes citées dans [307] :
 les synapses des vertébrés contiennent environ 1000 protéines, mises en
œuvre dans 13 mécanismes moléculaires, dont l'un utilise 183 protéines
différentes ;
 le cerveau humain compte environ 100 milliards de neurones reliés par 100
trillions de synapses (oui, cent mille milliards de synapses).
 Un neurone peut dialoguer avec un millier d'autres en même temps : comme
les ordinateurs multitâches et/ou multiprocesseurs, beaucoup de processus
psychiques se déroulent en parallèle ; un processus peut en démarrer
d'autres et communiquer avec eux.
Au-dessus de cette complexité physique, la pensée elle-même représente toute une
« hiérarchie logicielle », avec ses mécanismes conscients ou non de mémorisation et
recherche d'informations, de jugement de valeur de chaque pensée, d'enchaînement
de pensées par analogie, induction, déduction et synthèse, etc. Le fonctionnement
de ces mécanismes psychiques ne se déduit pas des seuls mécanismes physiques
qui les supportent, on ne peut les décrire qu'en ajoutant des algorithmes décrivant
des pensées et leur enchaînement : le tout est plus riche que la somme des parties.
151
Comme nous l'avons vu plus haut, la pensée est la perception humaine du
fonctionnement du cerveau lorsque celui-ci interprète ses connexions de neurones.
C'est cette interprétation qui transforme un état matériel de neurones en
abstractions ; elle constitue la seule mise en relation entre concepts de genres
différents qui ne viole pas le principe d'homogénéité. En reliant des abstractions,
l'esprit humain peut créer n'importe quelle relation, même fantaisiste ou absurde ; il
suffit que certains groupes de neurones (des « cliques ») créent, modifient ou
suppriment diverses connexions entre neurones.
Mais le subconscient entretient constamment des pensées qui échappent à tout
contrôle de la conscience. Il y a, par exemple, la formation de valeurs de l'individu qui
vont ensuite guider toute sa pensée et toutes ses actions en définissant les affects,
et notamment tout ce qui est désiré et ce qui ne l'est pas. Il y a aussi un très grand
nombre de vérités et d'opinions à priori, aussi injustifiables logiquement (indécidables
[6]) que les pensées relevant de l' « esprit de finesse » (intuition, sagacité, etc. [66]
[141]), mais accessibles à la conscience. La connaissance des processus
subconscients progresse, mais elle est encore très embryonnaire. L'influence du
subconscient est une des raisons de l'imprévisibilité humaine. (Détails)
Le subconscient et la complexité fantastique des mécanismes de la pensée
expliquent l'essentiel de son caractère généralement imprévisible, malgré une base
physique déterministe. Subconscient et complexité font que la condition de stabilité
(reproductibilité) de la définition du déterminisme scientifique est rarement satisfaite ;
par exemple, certains mécanismes qui dépendent d'autres ne se déclenchent pas
lorsque des résultats de ces autres mécanismes changent.
Selon la quantité de neurotransmetteurs comme la dopamine et l'acétylcholine
dans certaines zones du cerveau, les pensées sont très différentes. La mémoire à
long terme, soumise elle aussi à un environnement chimique et à des stimulations
qui varient avec les circonstances, peut oublier ou déformer les souvenirs, voire
même créer de faux souvenirs qui nous paraissent vrais. Le cerveau fabrique
souvent des pensées par intuition ou analogie sans que l'individu soit conscient de
leur élaboration, et certaines sont erronées ou indécidables tout en paraissant
acceptables au mécanisme automatique de jugement de valeur.
Voilà pourquoi le cheminement et les conclusions de la pensée humaine sont le plus
souvent imprévisibles. Voilà pourquoi la pensée d'un individu est tellement soumise à
ses affects que sa raison elle-même n'est qu'un outil à leur service, et que l'individu
préfère souvent des décisions qu'il sait irrationnelles ou immorales à des décisions
rationnelles ou morales.
3.2.1
La barrière de complexité
Depuis que l'homme primitif savait évaluer un danger en un instant, sans prendre le
temps de réfléchir à ce qu'il devait faire, l'homme a dans ses gènes une fonction
d'évaluation au premier coup d'œil. Cette fonction est si automatique qu'on ne peut la
bloquer, et il faut l'effort d'un raisonnement délibéré pour en changer les conclusions.
Cet effort est d'autant plus important que la situation est complexe. L'homme doit
alors trouver un compromis entre la qualité d'une décision et sa rapidité. L'habitude
de juger au premier coup d'œil est si forte que, face à une situation complexe,
l'homme adopte souvent la première idée qui lui vient, sans prendre le temps de faire
152
le tour des paramètres et des contraintes du contexte. La plupart des citoyens, par
exemple, votent pour un programme électoral qu'ils n'ont pas analysé en détail, voire
dont ils n'ont lu que le nom du candidat et de son parti.
Conséquence : imprédictibilité des décisions économiques et boursières
L'imprédictibilité des décisions humaines se manifeste de manière spectaculaire en
économie et sur les marchés financiers, où on peut montrer qu'aucun modèle
mathématique, même statistique, ne peut permettre des prédictions fiables. C'est
pourquoi, par exemple, tant de fonds hautement spéculatifs (hedge funds) basés sur
les modèles de mathématiciens de haut niveau (les quants) ont disparu avec de
fortes pertes lors de la crise de 2007-2008 [301].
3.2.2
Rigueur des raisonnements déductifs
Il nous paraît évident qu'un raisonnement purement déductif (« géométrique »,
comme diraient Pascal et Spinoza) est rigoureux. Le syllogisme démonstratif :
"Tous les hommes sont mortels ; Socrate est un homme ; donc Socrate est mortel"
nous paraît rigoureux. Mais les neurosciences montrent que nous n'acceptons une
conclusion - même certaine parce que rigoureuse - que lorsqu'elle ne nous touche
pas personnellement, ou lorsque la valeur affective que nous lui attribuons
automatiquement ne s'oppose pas à une valeur supérieure associée à une
conclusion différente. Dans le cas d'une telle opposition nous préférons être de
mauvaise foi, parce qu'accepter la conclusion logique nous coûte plus cher
émotionnellement qu'en accepter une illogique. Il arrive qu'on préfère perdre de
l'argent plutôt que de perdre la face…
Voir aussi le paragraphe sur la dissonance cognitive.
En toute rigueur :

La 1ère proposition ci-dessus "Tous les hommes sont mortels" implique à elle
seule la conclusion, puisque Socrate est un homme : en l'affirmant on sousentend qu'on est déjà certain de cette conclusion. La 2 ème proposition ne sert
donc qu'à expliciter le raisonnement pour le clarifier et préparer la conclusion,
elle n'ajoute pas d'information à la 1 ère.
Une proposition de type "Tous les…" sous-entend en principe qu'on a la
certitude pour tous les éléments de l'ensemble concerné, par exemple parce
qu'on a vérifié la proposition pour chacun d'eux ou pour tout l'ensemble qu'ils
forment. Mais comme il y a de nombreux cas où une telle vérification est
impossible (ici on ne sait même pas combien il y a d'hommes, on ne peut les
joindre tous pour vérifier, etc.) la proposition repose alors sur une induction : on
sait qu'elle est vraie pour un nombre d'éléments suffisamment grand pour
postuler qu'elle doit être vraie pour tous ; on prend le risque de généraliser.

Tout raisonnement logique, notamment toute démonstration, repose sur des
prémisses admises sans démonstration dans ce raisonnement. Il peut s'agir
d'axiomes, de généralisations par induction, de certitudes acquises avant ce
raisonnement, etc.

Un raisonnement peut, à l'occasion, comprendre une infinité d'étapes : on parle
alors par exemple de « régression à l'infini » ou de récurrence. Le raisonnement
peut être parfaitement valable et concluant si la suite infinie de déductions
153
converge vers une conclusion : voir le paragraphe Déterminisme et convergence
des processus et théories.
3.2.3
Champ d'application du déterminisme et de la causalité
La causalité et le déterminisme étendu construit sur elle s'appliquent bien à toutes
les lois de la nature. Ils ne s'appliquent pas, en général, à la pensée elle-même :

Souvent celle-ci ne respecte pas la contrainte de reproductibilité (règle de
stabilité) du déterminisme scientifique, notamment parce que la complexité des
phénomènes psychiques et le nombre de leurs paramètres (humains et
environnementaux) font qu'il y a presque toujours au moins une variable qui a
changé entre deux situations apparemment identiques, par exemple dans le
subconscient.

Face à une situation, une différence fondamentale entre la nature et l'homme est
que la nature applique instantanément la loi ad hoc, alors que l'homme réfléchit
aux conséquences d'une éventuelle action, anticipant ainsi l'avenir et agissant
en fonction de cette anticipation. Et comme sa réflexion (dominée par ses affects
et ses valeurs, souvent subconscientes) n'est en général pas rationnelle, ses
conclusions sont trop souvent imprévisibles pour que ses actions soient
prédictibles.

L'esprit humain peut spontanément associer n'importe quel concept à n'importe
quel autre, au mépris du principe d'homogénéité et de la rigueur. Il lui faut
ensuite un effort délibéré de raisonnement conscient pour aboutir à une
conclusion rigoureuse, et il échoue souvent du fait de biais subconscients.
Nous verrons plus bas en détail pourquoi il y a une classe de phénomènes, dont la
pensée fait partie, qui en général ne sont pas déterministes. Notons pour le moment
qu'il n'y a pas de contradiction entre le caractère déterministe des mécanismes
neuronaux de la pensée, résultant de celui des mécanismes génétiques sousjacents, et le caractère non déterministe de la pensée : entre les premiers et la
seconde, il y a toute une logique de fonctionnement dont la complexité et la
sensibilité au contexte (santé, etc.) expliquent l'instabilité.
Voir en fin de texte la table résumant les cas d'imprédictibilité.
154
3.3
Compléments philosophiques sur le déterminisme
3.3.1
Trois cas de déterminisme

Au sens du déterminisme traditionnel, le jet d'un dé est un phénomène aléatoire
puisque le nombre résultant est imprévisible [299]. En fait, ce résultat n'est pas
n'importe quoi : l'ensemble des résultats, {1, 2, 3, 4, 5, 6}, est toujours le même :
le résultat est déterministe statistique.
Dans le cadre du déterminisme étendu défini ci-dessus le jet d'un dé est un
phénomène déterministe sensible aux conditions initiales, pas un phénomène
aléatoire. Ce sont les incertitudes physiques qui rendent son résultat imprévisible
[299], donc relevant du déterminisme statistique.
Le résultat d'une évolution physique donnée n'est pas nécessairement unique, il
peut s'agir d'un ensemble ; le déterminisme étendu exige seulement qu'une
cause donnée déclenche toujours le même phénomène ; son résultat peut avoir
plusieurs éléments simplement parce que le modèle mathématique qui le décrit
a plusieurs solutions. Seul le choix d'un élément unique de l'ensemble-résultat
produit par une évolution donnée peut être statistique, et cette évolution ne se
produit qu'en Mécanique quantique, sous le nom de décohérence.
Conclusion : la nature a ses propres limites ; elle ne permet pas toujours la
prédictibilité que l'homme souhaite, avec une solution unique et une précision
parfaite. C'est pourquoi, par exemple, la position et la vitesse d'un électron en
mouvement ne peuvent en aucun cas être connues avec une précision totale.

Le résultat d'un algorithme [69] calculé par un ordinateur est nécessairement
déterministe [114]. Le fait que la succession des décimales de Pi n'ait aucune
régularité, c'est-à-dire qu'elle semble aléatoire [98] bien que calculable par un
algorithme, montre qu'un algorithme peut générer des suites de nombres
aléatoires malgré son déterminisme (le caractère aléatoire n'est que
probablement vrai, car aucun contre-exemple n'a jamais été trouvé et nous
avons vu qu'il n'existe pas de critère de caractère aléatoire d'une suite de
nombres). Les logiciels générateurs de nombres « aléatoires » sont très utilisés
en informatique et pour concevoir des expériences de physique.
Nous verrons que la calculabilité d'un algorithme exige le déterminisme, mais la
modélisation informatique d'un processus déterministe ne conduit pas
nécessairement à un algorithme calculable. (Détails sur la calculabilité : [114])

Si, par une nuit noire, un désespéré se jette du haut d'un pont dans un fleuve
pour se noyer, et qu'un homme qu'il n'a pas vu plonge et le sauve, le sauvetage
était imprévisible. C'est un cas de déterminisme où il y a rencontre de deux
chaînes de causalité indépendantes (celles des deux hommes).
3.3.2
Symétrie temporelle et réversibilité du déterminisme traditionnel
Possibilité d'inverser le sens du temps
Pour le déterminisme scientifique traditionnel, le temps peut s'écouler du passé vers
l'avenir ou du présent vers le passé. Cette possibilité d'inverser le sens du temps en
changeant t en -t dans les équations d'évolution est compatible avec certaines lois
importantes de la physique, lois qui s'appliquent toujours à des systèmes
conservatifs (définis ci-dessous). Exemples :
155

Les lois du mouvement de Newton [110] (voir exemple) ;

Les équations différentielles de Lagrange et celles d'Hamilton ;

Les équations de la Relativité Générale d'Einstein [328] ;

Les équations de Maxwell [123] ;

L'équation de Schrödinger, etc.
Chaîne de causalité unique du déterminisme traditionnel
Nous savons que pour le déterminisme philosophique, tout état d'un système a une
infinité de prédécesseurs et de successeurs, l'ensemble constituant une chaîne de
causalité unique, où chaque état a un prédécesseur unique et un successeur unique
[200]. L'avenir qui suit la situation à un instant t donné ne dépend que de cet instantlà, on peut le prévoir à partir de cet instant-là sans tenir compte du passé qui
précède l'instant t, et le passé d'un présent donné peut être reconstitué en pensée.
3.3.2.1
Différence entre symétrie temporelle et réversibilité
Il ne faut pas confondre symétrie temporelle, propriété qui laisse invariante une
équation d'évolution lorsqu'on y remplace la variable t par -t, et réversibilité
physique, propriété qui permet à un système d'évoluer tantôt dans un sens, tantôt en
sens opposé.
Symétrie temporelle
La symétrie temporelle est une propriété des fonctions et équations invariantes
quand on inverse le sens du temps, ce qui revient à "dérouler à l'envers" le fil des
événements, du présent vers le passé.
Toutes les évolutions dues à une interaction électromagnétique ou une
interaction forte [18] sont régies par des lois symétriques par rapport au temps.
Réversibilité physique
La réversibilité physique est une propriété des évolutions ou transformations d'un
système ; exemple d'évolution : une réaction chimique. Lorsqu'une évolution
réversible change de sens, le temps continue à s'écouler dans le même sens, du
présent vers l'avenir.
Exemple de symétrie temporelle
L'équation fondamentale de la dynamique f = m relie une force f, une masse m et
une accélération  dérivée seconde de la fonction de position x(t). Si on change t
en -t, la vitesse (dérivée de la position par rapport au temps) change de signe et
l'accélération (dérivée de la vitesse) change deux fois de signe : elle est donc
inchangée. L'équation est donc invariante par un changement de t en -t. Cela se voit
dans l'exemple.
Exemple de phénomène réversible
En chimie certaines réactions entre deux produits A et B convergent vers un état
d'équilibre, où A et B coexistent dans une proportion donnée. S'il se forme trop de A
aux dépens de B, la réaction s'inversera et formera du B aux dépens de A jusqu'à
établir la proportion d'équilibre. Le temps, lui, s'écoulera toujours du présent vers le
futur.
156
Remarque philosophique sur la réversibilité
Dans [215] page 121, André Comte-Sponville cite l'Ethique à Nicomaque d'Aristote :
"Il y a une seule chose dont Dieu même est privé,
C'est de faire que ce qui a été fait ne l'ait pas été."
Il rappelle ainsi qu'on ne peut faire qu'un événement du passé n'ait pas eu lieu,
même si on aimerait bien qu'il n'ait pas eu lieu ; on ne peut pas, non plus, faire que le
présent soit autre que ce qu'il est : c'est le principe d'identité [16]). Mais la
réversibilité ne revient pas sur le passé, elle recrée le passé en effectuant une
transformation en sens inverse sans pour autant changer le sens du temps ; c'est
une possibilité déterministe, où l'action d'une loi réversible de la nature fait bien
passer du présent au futur par une évolution inverse de celle du passé.
3.3.2.2
Phénomène irréversible
Lorsqu'une évolution ne peut se faire que dans un seul sens, on dit qu'elle est
irréversible. C'est le cas, par exemple, de la décomposition radioactive d'un noyau
atomique : une fois décomposé en d'autres particules avec production éventuelle de
rayonnement, le noyau ne peut plus se recomposer pour revenir à l'état initial.
Une équation qui décrit l'évolution d'un phénomène irréversible ne peut ni être
invariante par changement du sens du temps, ni avoir un domaine de validité
permettant d'envisager ce changement de sens.
Exemples de phénomènes irréversibles

Nous verrons plus bas que le deuxième principe de la thermodynamique [25]
impose à certains phénomènes comme la radioactivité d'être irréversibles.

En physique quantique, toute mesure perturbe le système mesuré de manière
irréversible.

Malgré tous ses mécanismes de réparation et de renouvellement, le corps
humain vieillit et ce vieillissement est irréversible : un corps adulte n'a jamais pu
rajeunir et redevenir un corps d'enfant.
Remarque : on a parfois tendance à parler de « réversibilité » lorsqu'on change par
la pensée le sens d'écoulement du temps, mais c'est un abus de langage. Au lieu de
parler de « réversibilité du temps » on devrait parler :

Soit de « réversibilité de certains phénomènes » : le temps s'écoule toujours du
présent vers l'avenir, mais certains phénomènes physiques sont dits réversibles
parce qu'ils peuvent revenir de l'état d'arrivée à l'état de départ, comme on le voit
dans certaines réactions chimiques réversibles et dans l'exemple ci-dessous.

Soit de « symétrie par rapport au temps » (symétrie d'une équation par rapport à
la variable temps), certaines lois physiques étant décrites par des équations
invariantes si on change t en -t. Cette symétrie permet de reconstituer le passé
par la pensée, en « passant à l'envers le film des événements ».
Le déterminisme traditionnel de Laplace [200] affirme la possibilité de remonter
le temps par la pensée, c'est-à-dire d'expliquer la succession d'événements qui a
conduit au présent. Il n'affirme rien :
157


Ni concernant la possibilité d'une inversion du sens d'écoulement du temps
qui permettrait de revenir à une situation physique du passé ;
Ni concernant la possibilité de phénomènes réversibles.
Attention : le terme « symétrie » est souvent utilisé par les physiciens pour parler
d'invariance.
3.3.2.3
Exemple de loi symétrique par rapport au temps et réversible
Pour illustrer le déterminisme traditionnel, en voici un exemple. Il est classique car
emprunté au domaine des lois de la dynamique et de la gravitation universelle de
Newton [103] [110].
Considérons l'équation fondamentale de la dynamique f = mr'', où le vecteur
accélération r'' est la dérivée seconde du vecteur position r par rapport au temps. Si
l'on inverse le sens du temps, en changeant t en -t pour « dérouler à l'envers le film
des événements » ou « permuter l'avenir et le passé », le vecteur vitesse (dérivée
r'(t) de la fonction de déplacement r(t) ) change de signe, et l'accélération (dérivée
r''(t) de r'(t) ) change aussi de signe par rapport à r'(t) : l'équation de départ est
inchangée. On dit qu'elle est symétrique (c'est-à-dire invariante) par rapport au sens
du temps.
La symétrie temporelle change le sens des vitesses, mais pas celui des
accélérations ; et elle ne change ni les grandeurs (valeurs absolues), ni les
déplacements, ni la vitesse, ni l'accélération.
Exemple
L'interprétation de cette symétrie se comprend dans l'exemple suivant. Supposons
que sur la Lune, donc en l'absence de frottements atmosphériques, on lance à
l'instant 0 une balle à partir du sol avec un angle de 45° vers le haut et une vitesse
dont chacune des deux composantes, horizontale et verticale, vaut 2m/s. La balle
décrit une parabole d'axe vertical conforme à la loi :
x = 2t
y = -½ gt² + 2t
(1)
où g est l'accélération de la pesanteur sur la Lune, g = 1.635 m/s² (environ un
sixième de l'accélération terrestre). A l'instant t = 1.22s, la balle atteint sa hauteur
maximale. A l'instant t = 2s, ses coordonnées sont x = 4m ; y = 0.73m et la
composante verticale de sa vitesse est -1.27m/s.
Supposons qu'à l'instant t = 2s on relance la balle vers le haut avec une vitesse
opposée à celle qu'elle avait en arrivant : une vitesse horizontale de -2m/s et une
vitesse verticale de +1.27m/s. Si on choisit comme nouvel instant 0 l'instant de la
relance, la balle décrira une parabole d'axe vertical conforme à la loi :
x = -2t + 4
y = -½gt² + 1.27t + 0.73
(2)
On remarque que cette nouvelle parabole a le même coefficient -½g du terme t² que
la première, la fonction y(t) ayant la même dérivée seconde, comme prévu. A l'instant
t = 2 depuis la relance, la balle arrive au sol (x = y = 0).
158
En éliminant t entre les équations (1) on trouve la trajectoire
y = (-1/8)gx² + x
(3)
Or en éliminant t entre les équations (2) on trouve la trajectoire
y = (-1/8)gx² + x
(4)
Les deux trajectoires (3) et (4) sont bien identiques. La balle a parcouru au retour
exactement la même parabole qu'à l'aller, mais en sens inverse. On a donc bien une
symétrie par rapport au temps permettant de « dérouler le film des événements à
l'envers ».
On dit aussi que le mouvement de la balle est « réversible de manière artificielle »,
puisqu'on peut - dans le cadre de la même loi fondamentale de la dynamique revenir de l'état final à l'état initial, mais sans changer le sens du temps. C'est là un
exemple à la fois de réversibilité et de symétrie temporelle. Le déterminisme
traditionnel prévoit la symétrie temporelle et n'impose rien concernant la réversibilité.
3.3.2.4
Système conservatif ou dissipatif – Force conservative ou dissipative
En mécanique analytique, on appelle système conservatif un système matériel qui a
une énergie constante car sans échange avec l'extérieur ; c'est le cas, notamment,
des systèmes sans frottement (en pratique ceux où les frottements ne perturbent
l'évolution que de manière négligeable) ; exemple : une planète qui tourne autour du
Soleil. Le modèle mathématique d'évolution d'un système conservatif a une symétrie
temporelle lorsque c'est un système d'équations différentielles invariable par
changement de t en -t.
Un système qui n'est pas conservatif (qui échange de l'énergie avec l'extérieur) est
dit dissipatif. Les équations différentielles qui en décrivent l'évolution changent
lorsqu'on remplace t par -t.
Une force est dite conservative si et seulement si le travail qu'elle produit lorsque son
point d'application se déplace de A à B est indépendant du chemin suivi ; elle dépend
alors d'un potentiel. Exemple : une force centrale (dépendant de l'attraction ou de la
répulsion d'un point, le centre, comme la force de gravité ou la force électrique) est
conservative (exemple : [313]).
Une force qui ne dépend pas d'un potentiel est dite dissipative. Lorsque son point
d'application se déplace de A à B, son travail dépend du chemin suivi.
3.3.3
Portée du déterminisme : locale ou globale
Le déterminisme local régit le passage d'une situation de départ à une situation
d'arrivée sous l'effet d'une loi d'évolution locale. Mais ce n'est pas la seule forme que
le déterminisme peut prendre. Il peut aussi, en agissant de manière plus globale :

Choisir une loi d'évolution parmi plusieurs possibles, ce que nous verrons cidessous avec le Principe de moindre action de Maupertuis, avec le principe de
Fermat et les quasi-cristaux.
159
Mais le principe de correspondance fait qu'aucune loi de portée donnée ne peut
faire évoluer une même situation de manière différente de celle d'une loi d'une
autre portée : la nature est cohérente.

Grouper un certain nombre de variables, en précisant une loi d'évolution globale
qui interdit de connaître l'évolution d'une des variables prise isolément ; nous
verrons cela ci-dessous avec le déterminisme statistique, les variables
complémentaires de la Mécanique quantique et ses particules corrélées.
Nous verrons plus bas l'origine des échelles multiples du déterminisme.
3.3.3.1
Principe de moindre action de Maupertuis
D'après le postulat de la chaîne de causalité unique du déterminisme traditionnel, le
déterminisme agit localement (de proche en proche) en enchaînant causes et
conséquences. Mais le Principe de moindre action de Maupertuis [62] (qui est en
réalité un théorème démontrable) montre que lors du mouvement d'un corps sous
l'action d'un champ de force dérivant d'un potentiel, la trajectoire entre un point de
départ et un point d'arrivée ne dépend que de ces points. Elle peut aussi être
interprétée comme choisie globalement parmi toutes les trajectoires possibles.
3.3.3.2
Principe de Fermat (plus court chemin de la lumière)
Autre exemple de déterminisme global : le principe de Fermat [106] (théorème lui
aussi démontrable), selon lequel la lumière choisit toujours le chemin le plus court
(au sens du temps de parcours) pour aller d'un point à un autre. Il y a là un
déterminisme global imposant les comportements suivants :

Dans l'espace ordinaire (espace dit euclidien), le chemin le plus court est une
ligne droite [313].
C'est ainsi que la lumière d'une source située au foyer d'un miroir elliptique est
focalisée à l'autre foyer après une réflexion unique sur l'intérieur elliptique du
miroir, car tous les chemins entre les foyers qui comprennent une réflexion sur
l'ellipse ont la même longueur, donc le même temps de parcours.

A la surface d'une sphère comme la Terre, le chemin le plus court entre deux
points A et B est le plus petit des deux arcs de grand cercle passant par A et B
[313].

En passant d'un milieu d'indice n1 à un milieu d'indice n2, il y a réfraction et la
lumière change de direction en suivant la 2 e loi de Descartes [106].
3.3.3.3
Quasi-cristaux
Dernier exemple de déterminisme global (ou plus exactement « à grande
distance ») : la structure atomique des quasi-cristaux, dont la découverte par Daniel
Schechtman a été récompensée par le Prix Nobel de chimie 2011 [308]. Dans un
cristal « normal » la construction (cristallisation) se fait par ajout d'atomes un par un,
à des emplacements compatibles avec les atomes voisins, pour respecter des motifs
simples comme les symétries de rotation d'ordre 2, 3, 4 ou 6, les seules permises par
la théorie traditionnelle [149]. Dans un quasi-cristal (forme de matière découverte
fortuitement en 1984 et dont on connaît aujourd'hui plus de 100 variétés) la structure
des atomes est déterministe (non aléatoire), fortement ordonnée à grande distance
(et non pas par rapport aux seuls atomes voisins) et avec des symétries de rotation
interdites par la théorie des cristaux normaux. On trouve ainsi, par exemple, des
160
symétries de rotation en icosaèdre, solide régulier dont les 20 faces sont des
triangles équilatéraux ! [147]
Icosaèdre vu sous trois angles différents
Tout se passe dans la construction d'un quasi-cristal comme s'il existait des
phénomènes de Mécanique quantique à grande distance caractéristiques d'un
nouvel état de la matière. Nous n'entrerons pas dans le détail du phénomène
complexe et encore mal connu des quasi-cristaux, car ce qui nous intéresse du point
de vue déterminisme apparaît suffisamment dans ce qui précède : il existe des
phénomènes dont le déterminisme est global et prend en compte des éléments
beaucoup plus nombreux ou plus éloignés que ceux auxquels on s'attend d'après le
déterminisme classique. En outre, la Mécanique quantique s'applique aussi à des
phénomènes à une échelle bien plus grande que l'échelle atomique.
3.3.3.4
Variables complémentaires
Nous verrons en étudiant le déterminisme de la Mécanique quantique qu'on y
démontre l'existence d'un « principe d'incertitude », dit de Heisenberg, qui groupe
certaines variables par couples dont une mesure simultanée a un minimum
d'incertitude globale. Nous verrons que cette incertitude minimum provient de
l'existence du quantum d'action h et de l'irréversibilité de la mesure.
3.3.3.5
Conclusion sur le déterminisme global
Le déterminisme agit donc aussi parfois globalement, comme s'il était soumis à une
finalité. Les situations intermédiaires entre le début et la fin d'une évolution sont alors
déterminées par celle du début (« oubliée » dès sa première conséquence dans le
déterminisme de proche en proche) et celle de la fin (qui n'est pas encore arrivée !).
Mais, comme on le voit dans le principe de Maupertuis [62], ce paradoxe n'est
qu'apparent : le déterminisme a deux niveaux de portée des lois, un global et un
ponctuel. Lorsque le déterminisme choisit une loi globale, la loi ponctuelle (de proche
en proche) si elle existe complète la loi globale, qui demeure valable. Ce double
comportement n'est pas exceptionnel, nous en verrons un aussi en Mécanique
quantique, pour une particule qui est à la fois corpuscule et onde.
Le comportement global d'un mouvement, choix de trajectoire découvert par
Maupertuis en 1744 [62] après le comportement ponctuel F = m exposé par Newton
en 1687 [110], constitue une extension des lois du mouvement de Newton [103].
161
3.3.3.6
Caractère humain, artificiel, de la notion d'échelle
La notion d'échelle est une abstraction humaine dont la nature n'a que faire.
L'homme s'en sert pour mieux se représenter les situations et les phénomènes,
notamment lorsqu'il compare une chose à une autre. Mais la nature ne juge pas que
quelque chose est "grand" ou "petit" par rapport à autre chose ; dans chaque
situation elle applique la loi d'évolution qui convient : elle prend en compte
l'ensemble des paramètres qui s'appliquent, que l'homme considère cet ensemble
comme local ou global, macroscopique ou microscopique.
Dire qu'entre deux valeurs d'une même variable la différence relative est minime, car
elle n'est que de 10-15 (un millionième de milliardième), n'a pas de sens pour la
nature. Si cette différence suffit pour qu'une évolution soit autre, elle le sera d'après
le principe d'identité [16].
3.3.3.7
Déterminisme des algorithmes et calculabilité
En plus des phénomènes régis par les lois physiques naturelles, le déterminisme
scientifique s'applique à l'ensemble des processus dont le résultat peut être fourni
par un algorithme [69], processus que les informaticiens qualifient de calculables. De
tels processus respectent :

La condition nécessaire et suffisante ci-dessus, si la cause comprend l'existence
de l'algorithme et de ses données, ainsi que le lancement du calcul ;

La règle de stabilité et reproductibilité, si l'algorithme est stable dans le temps
parce qu'il n'y a ni influence extérieure sur sa logique ou ses données, ni
autoprogrammation.
L'intérêt pratique des algorithmes vient de leur aptitude à modéliser un processus
réel dans des domaines aussi variés que la physique ou la dynamique d'une
population. Cette modélisation permet à la fois d'expliquer des phénomènes
constatés et de prévoir des évolutions : ses modèles sont déterministes.
Qu'il ait pour but de comprendre quelque chose, de prévoir une évolution et son
résultat ou de démontrer une proposition, un raisonnement scientifique prend
toujours la forme d'un algorithme. Un algorithme étant par nature déterministe, un
raisonnement scientifique l'est toujours. Nous verrons plus bas qu'il existe des cas où
l'on peut démontrer à la fois qu'un nombre existe et qu'on ne peut pas le calculer ; la
démonstration d'existence est alors un algorithme déterministe auquel on ne pourra
jamais associer un algorithme de calcul de valeur.
3.3.4
Compléments sur le déterminisme philosophique
Selon cette doctrine, tous les événements de l'Univers - y compris les actions
humaines - s'enchaînent dans le temps comme suit. En appelant S(t) la situation
(l'état) d'un système à l'instant t ; S(t-a) sa situation à l'instant "t-a" qui précède t ; et
S(t+b) sa situation à l'instant "t+b" qui suit t, alors :

S(t-a) est la seule situation à l'instant t-a qui a précédé et entraîné S(t) ;

S(t+b) est la seule situation à l'instant t+b qui résulte de S(t).
Le déterminisme philosophique est une interprétation du principe de causalité que
nous avons vu, et qui est défini par une condition nécessaire et suffisante.
162
Selon le déterminisme philosophique, appelé aussi "déterminisme de Laplace" [200] :

La chaîne de causalité reliant diverses situations qui se suivent dans le temps
est unique (il n'y a ni processus parallèles, ni rupture de la chaîne de causalité).

L'avenir est écrit d'avance et prédictible ;

Le passé d'une situation donnée peut être reconstruit en pensée.

Dans la mesure où on est certain à l'instant t de la situation S(t), le déterminisme
philosophique permet à la fois d'énoncer l'enchaînement d'événements après la
situation S(t-a) qui a conduit à S(t), et de prédire que S(t+b) se produira à
l'instant t+b.
Selon le déterminisme philosophique, la chaîne explicative remonte dans le temps
indéfiniment ; mais selon certains philosophes elle remonte jusqu'à une situation
initiale appelée parfois « cause ultime » ou « cause première » [16].
Voir aussi la définition de Spinoza d'une chose libre et d'une chose déterminée [225].
3.3.4.1
Critique de l'enchaînement des causes et des conséquences
3.3.4.1.1
Une situation peut être précédée ou suivie de plusieurs lois d'évolution.
Pluralité des évolutions passées possibles
En général, à l'instant t, on ne sait pas quelle était la situation S(t-a) à l'instant t-a,
faute de disposer d'un « film historique » des S(t), et faute de connaître parfaitement
la loi d'évolution qui a conduit à S(t) ; plusieurs situations S1(t-a), S2(t-a)… peuvent
avoir été l'origine unique de S(t). Exemple : si, après une opération arithmétique
(déterministe, car calculable) je sais seulement que le résultat est 4, je ne sais pas si
l'opération était 2 x 2 = 4, ou 3 + 1 = 4, ou…
L'explication et la prédiction des situations S(t-a), S(t) et S(t+b) sont de type
externe aux phénomènes, dont elles ne font que décrire l'enchaînement : le
déterminisme correspondant peut être qualifié de factuel. Ce déterminisme n'est
ni une preuve de la nécessité d'un phénomène, ni un éclairage sur son sens ou
sa nature interne ; il ne permet donc pas toujours de comprendre le pourquoi ou
le comment d'un phénomène.
Pluralité des évolutions futures possibles
Nous verrons que plusieurs lois d'évolution sont possibles à partir d'un point de
bifurcation de l'espace des phases. Nous verrons aussi, par la suite, qu'en physique
quantique il existe des évolutions produisant plusieurs résultats en même temps,
dont la coexistence est appelée « superposition », résultats qui finissent par se
réduire à un seul par une évolution finale, irréversible, appelée « décohérence ». La
nature choisit alors un des résultats possibles, sans que nous puissions savoir
d'avance lequel. Conséquences :

Cette réalité précise le principe de causalité : la conséquence d'une cause
donnée peut parfois être un ensemble de conséquences, dont la nature retient
un seul résultat, ou dont elle retient tous les résultats ensemble pendant un court
instant !
163
Du point de vue causalité, les deux énoncés suivants sont équivalents :
 Une cause donnée a une conséquence (évolution) unique pouvant produire
un ensemble de résultats ;
 Une cause donnée a un ensemble de conséquences, chacune pouvant
produire un résultat unique.

Cette pluralité contredit le déterminisme philosophique, car elle remplace la
chaîne de conséquences unique par une arborescence de conséquences ; et
comme l'existence d'un seul contre-exemple fait qu'une loi proposée est fausse,
le déterminisme philosophique doit être considéré comme réfuté.
3.3.4.1.2
Les transformations irréversibles contredisent le déterminisme
philosophique
En physique les transformations réelles sont irréversibles, et seules des
transformations idéales, théoriques, sont réversibles et permettent aussi l'évolution
en sens inverse ; nous abordons ce point plus bas. Mais dans ce cas aussi nous
pouvons affirmer que le déterminisme philosophique est contredit par l'existence de
transformations irréversibles, pour lesquelles on ne peut imaginer ni un changement
de sens du temps, ni l'instant de la transformation et la situation à cet instant.
Exemple : lorsqu'un atome de corps radioactif s'est décomposé spontanément, il
ne peut pas se reconstituer à partir des atomes produits et des photons émis, la
thermodynamique l'interdit ; et après avoir trouvé des produits de décomposition,
nous ne pouvons connaître ni l'atome dont ils proviennent (qui n'existe plus), ni
l'instant de cette décomposition, ni la position exacte de l'atome qui s'est
décomposé.
Un autre cas particulier de transformation irréversible est celui de la mesure en
physique quantique, cas que nous abordons maintenant.
3.3.4.2
Déterminisme, mesures et objectivité
En physique quantique toute mesure modifie l'état quantique de l'objet mesuré ; et on
démontre qu'une mesure réversible, c'est-à-dire sans modification de son objet, est
inconcevable. De ce fait, et contrairement à l'habitude en physique macroscopique,
en physique quantique l'interprétation d'une expérience ne peut pas être
indépendante du dispositif expérimental.
Certains philosophes en ont déduit que le résultat d'une expérience de physique
quantique ne pouvait être objectif, puisqu'il dépend de l'expérimentateur. C'est là une
erreur : le fait qu'un résultat dépende des détails d'un dispositif expérimental
n'entraîne pas qu'il dépend de la personne qui expérimente ! Si un autre
expérimentateur refait la même expérience, il obtiendra les mêmes résultats que le
premier ; non seulement cela a été vérifié en physique (quantique ou non) des
milliers de fois, mais on n'a jamais changé un résultat en changeant
d'expérimentateur sans changer le dispositif expérimental : le déterminisme joue
bien, l'objectivité de la connaissance des phénomènes et des résultats est possible.
L'erreur de ces philosophes résulte peut-être de leur spiritualisme, qui cherche à
prouver l'existence d'une idée abstraite à la base de toute réalité concrète, pour nier
celle-ci ou en faire une production de l'esprit humain ou divin. Ils déduisent donc de
164
l'intervention obligatoire et déterminante de l'expérimentateur - qu'ils ont affirmée à
tort - que la réalité objective n'existe pas, puisqu'elle n'existe qu'à travers
l'expérimentateur ! Un exemple d'une telle erreur de spiritualiste est donné plus bas.
3.3.4.3
Déterminisme et libre arbitre de l'homme
Pour un tenant du déterminisme qui se veut cohérent, l'homme n'est pas libre de ses
choix ; toute décision d'action à l'instant t dépend du contexte à cet instant-là
(l'homme lui-même, avec son corps et les valeurs qui orientent ses décisions, et ce
qui l'entoure). S'il fait du mal, l'homme n'est pas responsable, puisque ses actions
sont conséquences de circonstances dont il n'est pas maître ; et il ne peut pas, non
plus, se glorifier d'une bonne action. Malgré son esprit qui le croit libre, l'homme est
comme une machine, un automate asservi au contexte matériel. Le déterminisme est
donc une doctrine matérialiste.
La thèse d'absence de libre arbitre de l'homme est combattue par de nombreux
philosophes, qui n'arrivent pas à admettre que l'homme soit une sorte de machine,
que la vie et la pensée soient un ensemble de phénomènes soumis au déterminisme
physique de la nature. Voici ce que le mathématicien René Thom écrit dans [226] :
"Si l'on essaye d'analyser pourquoi les esprits manifestent une telle réticence à
l'égard du déterminisme, on peut, je crois, invoquer deux grandes raisons :
1. Il y a d'abord ceux qui tiennent à sauver le libre arbitre humain. […]
2. Il y a enfin le groupe de ceux qui se sentent opprimés par la montée
croissante des technologies, par la collusion de la science et du pouvoir. […]"
La thèse d'absence de libre arbitre est aussi combattue par des matérialistes
athées, comme André Comte-Sponville dans le court texte commenté dans [2].
Nous approfondirons le sujet de la liberté et du libre arbitre de l'homme plus bas.
3.3.4.4
Conclusions sur le déterminisme traditionnel
Retenons pour résumer que :

Le déterminisme traditionnel implique :
 une évolution certaine reliant cause et conséquence(s) ;
 un enchaînement de situations prévisibles conforme aux lois de la nature.

Le caractère déterministe traditionnel s'oppose donc :
 à l'imprévisibilité : selon le déterminisme traditionnel, celle-ci ne peut résulter
que d'une méconnaissance du phénomène ;
 aux comportements aléatoires de la nature, en opposant déterminisme (à
évolution et résultat prévisibles) et hasard (imprévisible) ; certains tenants du
déterminisme traditionnel admettent pourtant l'existence de hasard,
circonstances où la nature peut se comporter de manière imprévisible : ils
ne sont pas, alors, à une contradiction près !
 à la possibilité de conséquences multiples simultanées d'une même cause.

Enfin, en tant que doctrine matérialiste, le déterminisme nie l'existence de
phénomènes qui font intervenir des causes surnaturelles (transcendantes), c'està-dire externes à notre Univers ou échappant à ses lois physiques. Il refuse
d'envisager une éventuelle intervention surnaturelle dans l'apparition et le
165
déroulement des phénomènes, ainsi qu'une finalité éventuelle imposée au
déroulement des phénomènes par un Esprit transcendant qui dominerait la
matière.
Croire au déterminisme est une attitude rationnelle [210], scientifique, qui postule
l'existence d'une réalité objective indépendante de toute idée et la possibilité pour
l'homme de la trouver, souvent par approximations successives résultant de
critiques. Cette attitude s'oppose à la croyance dans des vérités révélées sans
preuve (et d'ailleurs infalsifiables [203]) par une religion ou une philosophie, vérités
qui prétendent expliquer le monde et comptent sur l'intuition ou l'obéissance de
certains pour les convaincre, au lieu d'en appeler à leur raison et leurs
connaissances factuelles, vérifiables et objectives.
166
3.4
Pourquoi ce texte et les efforts qu'il suppose
Ce long texte demande aux lecteurs plus que des efforts de lecture et de prendre le
temps nécessaire ; il leur demande d'accepter de remettre en cause leurs
connaissances et manières de penser. L'objectif premier de ces efforts est la
connaissance des phénomènes déterministes les plus importants, pour les
comprendre et s'en servir pour les décisions d'action, ainsi que la connaissance des
limites de la possibilité de prédire les évolutions et leurs résultats. Cette
connaissance doit peu à peu devenir une culture d'ouverture, d'objectivité et
d'honnêteté intellectuelle, en étant le plus possible incorporée au subconscient. Voici
ce qui à mon avis justifie ces efforts des lecteurs, et ceux qu'il m'a fallu pour l'écrire.
3.4.1
Inconvénients de l'ignorance, avantages de la connaissance
L'homme évalue toute situation en éprouvant des sentiments parce qu'il ne peut pas
s'en empêcher, comme Sartre et Freud l'ont remarqué. L'ignorance entraîne
l'incompréhension, qui entraîne, selon les cas :

De la frustration pouvant aller jusqu'à un sentiment d'injustice et de la révolte.
Nous savons, par exemple, que la plupart des jeunes qui deviennent des
casseurs, des incendiaires de voitures et des agresseurs de pompiers et
d'infirmières ne comprennent rien à notre société. Leur vocabulaire est de l'ordre
de 1000 mots, moins que celui compris par certains singes dressés. Et comme
la pensée organisée ne se forme qu'avec des mots, ils ne disposent pas des
concepts nécessaires pour comprendre ce qui se passe. Ils se sentent donc
exclus de notre société, d'où leur révolte ; et comme ils n'ont pas les mots pour
l'exprimer, leur violence est physique.

Une perte d'estime de soi (car « on n'est pas à la hauteur »).

L'impossibilité de prendre une décision ou l'obligation de décider sans savoir,
donc de prendre un risque non calculé.
Les peurs irraisonnées
L'incompréhension peut aussi provoquer une inquiétude pouvant aller jusqu'à la
peur. Avez-vous remarqué à quel point beaucoup de gens ont peur de « l'autre » ?
En fait, ils ont peur de ce qui, chez lui, est différent : sa couleur de peau, sa force
physique, l'attitude de rejet des conventions sociales qu'ils devinent à sa coiffure ou
ses vêtements, sa religion « qui produit des terroristes », etc.
La première cause d'une telle peur est l'ignorance : tout homme a instinctivement
peur de ce qu'il ne connaît pas, notamment lorsqu'il imagine alors le pire. Et la peur
entraîne souvent le rejet de l'autre, le refus de le respecter, de dialoguer avec lui, de
lui faire confiance, de lui offrir du travail ; c'est une des sources de l'exclusion, de la
xénophobie et du racisme.
Beaucoup de Français ont une peur irraisonnée des nourritures contenant des OGM.
Ils ne savent pas que, rien qu'en Amérique du Nord, plus de 400 millions de
personnes en mangent depuis les années 1980 sans qu'aucune pathologie n'en ait
résulté. Beaucoup ont aussi peur des ondes radio des téléphones portables, de
l'énergie nucléaire, etc. Nous sommes le seul peuple à s'être ridiculisé en mettant
dans notre Constitution l'absurde « principe de précaution », appliqué depuis par des
167
juges pour faire démonter des antennes simplement parce que des riverains en ont
peur : merci, président Chirac !
La plupart des Français redoutent l'économie de marché et la mondialisation par
ignorance de leurs mécanismes. Ils ne savent pas à quel point leur niveau de vie en
a profité, sur quels points elles constituent le meilleur système économique et sur
quels autres points elles ont besoin d'être encadrées. Ils ne savent pas, mais ils les
rejettent car ils en ont peur. Et ils se laissent abuser par les politiciens, les
syndicalistes et les journalistes qui profitent de cette peur pour influencer leur
opinion.
Savoir paie
Des études sociologiques approfondies ont montré que la plus grande longévité des
intellectuels (cadres, enseignants, professions libérales…) par rapport aux ouvriers
ne vient pas, comme l'affirment les syndicats, d'une différence de pénibilité du travail.
Elle vient d'une différence d'instruction : connaissant mieux les règles d'hygiène de
vie que les ouvriers, les intellectuels ont une meilleure santé qui entraîne une plus
grande longévité ; en notre siècle, celui qui ne sait pas vit moins bien et moins
longtemps.
Celui qui comprend peut :

Avoir la satisfaction de comprendre et de participer aux événements en tant
qu'acteur au lieu de subir, donc avoir de l'estime de soi ;

Accumuler une expérience utile et espérer en avoir de plus en plus avec le
temps ; et savoir, c'est pouvoir ;

Prendre la meilleure décision possible, d'où un sentiment de satisfaction (savoir
est indispensable pour être satisfait).
Soumission aux faits ou aux injonctions religieuses
Celui qui comprend accepte plus facilement les situations sur lesquelles il n'a pas
prise que celui qui ne comprend pas. Si ces situations lui sont défavorables, il
comprend dans quelle mesure exacte il en est responsable, il peut agir, ou il peut en
tirer une expérience qui lui servira peut-être un jour.
La possibilité d'être acteur de sa vie, d'être responsable au moins en partie de son
avenir est infiniment plus satisfaisante que la soumission à une volonté divine ou
politique qu'on doit accepter sans compréhension ni justification. Pour un
matérialiste, Dieu est d'abord le refuge psychologique de l'ignorant, qui trouve en lui
consolation, promesse de bonheur après la mort, et incitation à accepter son sort car
« Dieu l'a voulu » ; Marx résumait cela en écrivant que « la religion est l'opium du
peuple » [112].
3.4.2
Limite d'ambition de ce texte
Avec la définition donnée, une description complète et détaillée de la manière d'agir
du déterminisme scientifique comprendrait nécessairement l'ensemble des lois de la
physique, c'est-à-dire l'ensemble des lois de l'Univers. Et là il y a un problème.
168
Un énoncé ne peut ni se décrire lui-même ni se comparer à lui-même
Une description complète de l'Univers (sous une forme physique comme un texte
écrit) se comprendrait elle-même, ce qui est impossible.
Cette contrainte d'impossibilité est très générale : aucun énoncé ne peut se décrire
lui-même ou se comparer à lui-même, par exemple pour se juger par rapport à la
vérité. Toute description d'une notion doit se faire à partir d'autres notions ; toute
comparaison d'un objet a besoin de faire référence à au moins un autre objet. (Voir
détails et solution dans [220].)
Cette impossibilité ne concerne pas, bien évidemment, les descriptions internes de
l'Univers. On peut énoncer des lois de l'Univers comme la relation fondamentale de
la dynamique F = m qui relie entre elles 3 variables toutes définies dans l'Univers, la
force F, la masse m et l'accélération . Lorsqu'une telle description interne constitue
une loi scientifique, celle-ci est basée sur une axiomatique [67], elle aussi interne à
l'Univers. Le caractère universel d'une loi n'est jamais prouvé, il est postulé jusqu'à
ce qu'un contre-exemple éventuel le remette en question.
La connaissance scientifique de l'Univers est nécessairement incomplète et basée
sur des postulats
L'impossibilité d'auto-description complète a une conséquence fondamentale en
matière de connaissance scientifique de l'Univers : celle-ci n'existe - pour nous qui
sommes dans l'Univers - que sous forme d'énoncés (de lois, de valeurs de
constantes, etc.) écrits dans des langages à axiomatique [67] dont les axiomes sont
supposés connus, compris sans autre description et admis. Ces axiomes ne peuvent
pas se décrire eux-mêmes ; ils ne peuvent pas, non plus, se comparer à euxmêmes ; description et comparaison nécessiteraient des énoncés à axiomatique
externe à l'Univers (inconcevable pour nous, êtres de l'Univers) ou faisant référence
à une vérité absolue (à supposer que celle-ci existe, débat que nous abordons dans
[220].).
L'ensemble des énoncés basés sur les axiomes est donc nécessairement incomplet :
notre connaissance scientifique de l'Univers ne peut ni être complète, ni contenir des
connaissances externes à cet Univers, ni comparer des concepts scientifiques de
notre Univers à des concepts ou des vérités qui seraient externes ou absolus comme
Dieu, Ses qualités et Ses pouvoirs. Comme tout énoncé scientifique doit être écrit
dans un langage basé sur une axiomatique, il suppose les postulats de celle-ci
connus, compris et admis sans preuve.
Pourtant chaque homme a conscience de lui-même et peut se décrire ; il peut se
comparer à d'autres hommes, ou comparer ses qualités et possibilités à des valeurs
morales et aux possibilités d'autres êtres vivants ou à celles de machines, etc. Nous
en conclurons simplement que la conscience de l'homme ne fonctionne pas toujours
de manière scientifique, ce qui s'explique par sa subjectivité (incompatible avec
l'objectivité scientifique et qui rend l'homme souvent imprévisible) et le fait qu'elle ne
soumet pas systématiquement ses pensées à la réfutation comme l'exige la méthode
scientifique. (Détails dans la section "Le rationalisme critique de Karl Popper".)
169
Limites de ce texte
Ce texte se limite donc à la description de certains aspects, comportements et
conséquences du déterminisme, choisis en espérant qu'ils apporteront à la pensée
rationnelle du lecteur une ouverture à des processus naturels insuffisamment
connus, et aux modèles de représentation et de raisonnement correspondants.
Décrire le déterminisme, c'est dire ce qui est, pas ce qui devrait être. Je n'aborde
donc l'aspect moral du déterminisme que dans l'optique de sa participation aux
décisions humaines, évitant d'être moralisateur ou même seulement moraliste. Je ne
plaide pas pour la justice, l'équité ou la solidarité, pas même à propos de la
mondialisation, dont les processus purement économiques ne peuvent à eux seuls
assurer le bonheur des membres d'une société.
170
3.5
Le déterminisme en physique
Ce chapitre rappelle d'abord quelques notions et lois physiques utiles pour
comprendre les implications du déterminisme en matière de compréhension et de
prédiction du comportement de la nature, c'est-à-dire pour raisonner juste dans les
cas d'évolution déterministe.
Il décrit ensuite des phénomènes et lois dont la description et l'application exigent
des extensions du déterminisme scientifique traditionnel, à titre d'exemples de telles
extensions et de leur nécessité.
3.5.1
Système et état
On appelle état d'un système à un instant t l'ensemble des valeurs des variables qui
le décrivent. Un système matériel est ainsi décrit par des variables de composition
(ensemble des éléments qui le constituent), de forme, de position, de mouvement, de
masse, de charge électrique, d'impulsion [20], de spin [22], etc. Certaines variables,
dites externes, décrivent la relation du système à son environnement ; exemples : la
masse et la charge électrique. D'autres variables sont internes, comme les forces de
liaison entre ses divers composants. Certaines variables sont de type numérique,
d'autres de type vectoriel, d'autres encore de type booléen (vrai/faux, on dit aussi
logique), etc.
3.5.1.1
Degrés de liberté d'un système
C'est le nombre minimum de valeurs indépendantes nécessaires pour décrire toutes
les variables du système. Par exemple, un point matériel en mouvement a :

3 degrés de liberté pour décrire sa position à un instant donné, car il faut 3
coordonnées x, y et z dans le repère du système.

3 degrés de liberté pour décrire son vecteur vitesse à un instant donné, car ce
vecteur a 3 composantes selon les axes du repère.
Si le système comporte un très grand nombre X de points matériels (exemple : les
milliards de milliards de molécules d'un gaz contenues dans un petit récipient, où
elles s'agitent sans cesse du fait de leur température) il faut 6X variables pour décrire
toutes les positions et vitesses des molécules du système, qui a 6X degrés de
liberté.
Le nombre de degrés de liberté peut être réduit par des contraintes comme :

L'obligation de se déplacer à la surface d'une sphère (la position n'a plus, alors,
que deux degrés de liberté, appelés par exemple longitude et latitude) ;

L'obligation de tourner autour d'un axe, comme un pendule oscillant, dont la
position peut être décrite par une seule variable, l'angle avec la verticale.
Plus généralement, si l'état d'un système est décrit par N variables et C contraintes,
on dit qu'il a N-C degrés de liberté.
171
3.5.1.1.1
Equipartition de l'énergie entre les degrés de liberté
Il existe une loi de Mécanique statistique dite d'équipartition de l'énergie, qui
s'énonce ainsi :
"Dans un gaz ou un liquide en équilibre thermique à la température absolue T
[121] (c'est-à-dire qui n'échange pas de chaleur avec l'extérieur du récipient qui
le contient), chaque molécule possède une énergie cinétique moyenne égale à
½kT par degré de liberté, où k est la constante de Boltzmann [122],
k = 1.38066 .10-23 joule par degré Kelvin. Et puisqu'il y a 3 degrés de liberté de
vitesse, chaque molécule a une énergie cinétique moyenne de 3/2kT."
Conséquences
 Agitation thermique - Mouvement brownien des molécules
Nous avons déjà vu que l'énergie cinétique d'un atome ou d'une molécule
est proportionnelle à sa température absolue. Celle-ci étant toujours
supérieure au zéro absolu, atomes et molécules ne peuvent s'empêcher de
bouger ! Dans un solide, chaque atome vibre et/ou oscille autour d'une
position moyenne. Dans un liquide ou un gaz, où chaque molécule est
entourée de vide, les diverses molécules bougent sans cesse en
s'entrechoquant et en rebondissant sur les parois de temps en temps : on dit
qu'elles sont en mouvement brownien. Il est remarquable que les chocs
entre les molécules et sur les parois soient parfaitement élastiques et sans
perte d'énergie par frottement, et que la température soit une cause
nécessaire et suffisante de mouvement : tout cela n'avait rien d'intuitif et
notre déterminisme doit en tenir compte.

L'énergie cinétique d'une molécule ne dépend pas de la masse moléculaire,
résultat qui n'a rien d'intuitif puisqu'on aurait tendance à penser qu'une molécule
plus lourde emmagasine plus d'énergie cinétique qu'une plus petite. C'est ainsi
qu'une molécule d'oxygène pesant 16 fois plus qu'une molécule d'hydrogène a la
même énergie cinétique qu'elle à une température T donnée. Comme une
énergie cinétique donnée Ec est reliée à la masse m et la vitesse v par la formule
Ec = ½mv2, à une masse 16 fois plus grande correspond une vitesse moyenne 4
fois plus petite, car 42 = 16 : à température égale, une molécule d'oxygène se
déplace 4 fois moins vite qu'une molécule d'hydrogène.
Equipartition de l'énergie potentielle
La règle d'équipartition de l'énergie s'applique aussi à l'énergie potentielle éventuelle
des molécules (due par exemple à un champ de force comme un champ électrique
ou un champ gravitationnel [313]) : chaque degré de liberté associé à une énergie
potentielle apporte, lui aussi, une énergie de ½kT, portant donc l'énergie totale à 3kT
par molécule ou atome de solide. C'est ainsi qu'un atome d'un corps à l'état solide
qui vibre autour de sa position moyenne a une énergie moyenne totale de 3kT, cette
vibration permanente et sans frottement étant la manifestation de la température du
solide. L'énergie potentielle affectant les atomes du solide est due aux forces de
liaison entre ces atomes en équilibre, forces attractives et répulsives.
3.5.2
Espace des phases – Stabilité des lois physiques d'évolution
A un instant donné t, l'ensemble des valeurs des N variables scalaires [126] qui
décrivent l'état d'un système peut être représenté par un point dans un espace à N
dimensions appelé « espace des phases ». Ainsi, lorsqu'un objet ponctuel se
172
déplace dans l'espace habituel à 3 dimensions, ses coordonnées sont x, y, z et les
composantes de sa vitesse en ce point sont les dérivées par rapport au temps x', y',
z' ; les 6 coordonnées de l'espace des phases sont alors x, y, z, x', y', z'. Lorsque le
point se déplace, ces 6 coordonnées sont des fonctions du temps et le déplacement
est associé à une courbe de l'espace des phases dont chaque point correspond à un
certain instant t. Lorsque les variables d'état sont toutes des variables de position,
l'espace des états est parfois appelé « espace de configuration » : c'est l'ensemble
des états possibles au sens position - ou parfois (position ; vitesse) ou
(position ; quantité de mouvement) - que le système peut atteindre.
Exemples d'évolution dans l'espaces des phases
Exemple 1 : la position d'un pendule simple de longueur l qui se balance sans
frottement de part et d'autre de la verticale est repérée par l'angle  qu'elle fait avec
cette verticale. La vitesse de variation de  est sa dérivée ' par rapport au temps.
Le mouvement est décrit par l'équation différentielle :
𝑑2 𝑔
+ 𝑠𝑖𝑛 = 0
𝑑𝑡 2 𝑙
Cette équation, non linéaire à cause du sinus, le devient lorsque, l'angle  étant petit,
on peut l'assimiler à son sinus ; le mouvement prend alors la forme :
 = 0 cos(t + ) d'où ′ = −0 sin(t + )
Dans un espace des phases rapporté aux axes  et ' avec des unités
judicieusement choisies, la courbe d'évolution dans le temps de l'angle du pendule
est un cercle, parcouru une fois à chaque période d'oscillation (figure suivante).
173
'
0
-0

Exemple 2 : l'état du volume intérieur à un cylindre de moteur à explosion, où brûle le
mélange combustible, peut être caractérisé à chaque instant par la pression p qui y
règne et le volume v du cylindre délimité par la position du piston. L'espace des
phases peut alors être rapporté à deux axes, "pression" et "volume". Lorsque le
moteur tourne et le piston se déplace, sa position à un instant t correspond à un point
de coordonnées (v, p) de l'espace des phases.
174
175
Diagramme théorique ABCDEBA du cycle d'un moteur à 4 temps
Ce diagramme est fermé, le cycle commencé en A revient en A
Nombre d'axes, dimension et degrés de liberté d'un espace des états
Si le système considéré comprend n points matériels, indépendants ou soumis à des
interactions, il faut N = 6n variables pour en décrire l'évolution de l'état
position + vitesse dans l'espace des phases : celui-ci doit être de dimension 6n. Si
les 6n variables sont indépendantes, l'espace des phases a 6n degrés de liberté ; si
les 6n variables sont liées par 2 relations, on dit qu'il a 6n-2 degrés de liberté, etc.
3.5.2.1
Représentation de l'évolution d'un système
Nous avons vu dans les deux exemples ci-dessus que l'évolution du système dans le
temps est représentée par un déplacement de son point représentatif dans l'espace
des phases : ce point y décrit une courbe paramétrée par la variable de temps t.
Dans les deux exemples ci-dessus le système était périodique, et l'évolution de l'état
d'un tel système au cours d'un cycle est une courbe fermée. Dans le cas général, il
n'y a qu'une seule courbe d'évolution passant par un point donné de l'espace des
phases : l'évolution à partir de tout point est unique, c'est un effet du déterminisme.
Deux courbes d'évolution séparées de l'espace des phases restent toujours
distinctes, sans intersection. Nous reviendrons sur ce point à propos des lignes de
force.
Chaque point de l'espace des phases représente l'état du système à un instant
donné. Ces états ne sont pas nécessairement équiprobables : à un instant donné t,
ou entre deux instants t1 et t2, chaque point isolé P a une certaine probabilité d'être
atteint et chaque point non isolé Q (c'est-à-dire entouré d'autres points associés à
des états possibles) a une certaine densité de probabilité associée [28].
Notation habituelle : coordonnées généralisées
On a l'habitude de désigner par qi (i=1, 2…n) les n coordonnées de l'espace de
configuration (dites coordonnées généralisées), et par q'i (i=1, 2…n) les n dérivées
par rapport au temps des coordonnées qi (dites vitesses généralisées). Exemple : les
x et x' précédents seront désignés respectivement par q1 et q'1 ; les y et y'
précédents seront désignés respectivement par q2 et q'2, etc.
3.5.2.1.1
Evolution d'un système représentée par des équations différentielles
Un système matériel décrit par un ensemble de n coordonnées généralisées
qi (i=1, 2…n) définies dans un espace de configuration, ainsi que par les vitesses
généralisées correspondantes q'i (i=1, 2…n), évolue souvent selon une loi décrite par
un système d'équations différentielles. L'évolution est alors complètement
déterminée par la donnée des conditions initiales, positions qi et vitesses q'i : elle est
déterministe au sens traditionnel, la donnée des conditions initiales entraîne une
évolution unique.
Importance de la stabilité d'une évolution
L'évolution régie par ce déterminisme mathématique est un modèle fidèle de
l'évolution physique si elle est stable, c'est-à-dire si des conditions initiales voisines
produisent des évolutions voisines, ne s'écartant guère de l'évolution théorique ;
176
cette condition est indispensable pour tenir compte de l'imprécision qui affecte
toujours les paramètres d'un système physique.
Nous avons vu à propos du chaos que l'évolution de certains systèmes
déterministes n'est pas stable : elle est si sensible à l'imprécision des conditions
initiales qu'elle devient imprévisible après un certain temps ; elle devient plus
prévisible après un certain temps si on calcule la prédiction un instant après le
départ. Nous verrons plus bas le cas des systèmes conservatifs.
3.5.2.2
Lignes de force d'un espace des phases et unicité de l'évolution
Définition : dans un champ de vecteurs quelconque, on appelle ligne de force toute
courbe dont la tangente en tout point a la direction du champ en ce point.
Exemple : les lignes de force du champ d'un aimant sortent de son pôle nord et
entrent dans son pôle sud ; des particules de fer s'alignent le long de ces lignes
de force, comme le montre la figure suivante, issue de Encyclopædia Britannica :
Particules de fer alignées le long des lignes de force du champ d'un aimant rouge
Dans l'espace des phases d'un système, chaque courbe représentant une évolution
dans le temps est une ligne de force de l'espace : en tout point d'une telle courbe,
l'évolution se fait selon la tangente en ce point.

En général cette tangente est unique, sauf éventuellement en un petit nombre de
points singuliers comme :
 Un point d'équilibre, où le système n'évolue pas ;
 Un point de bifurcation, où la loi d'évolution change en fonction d'un
paramètre externe.
L'unicité de la tangente en tout point non singulier de la courbe d'évolution d'un
système illustre une propriété de son déterminisme : le modèle mathématique
177
représentant l'évolution du système a une solution unique, une situation donnée
ne peut évoluer que d'une seule façon.

Lorsqu'une situation donnée peut évoluer de plusieurs façons distinctes, les
évolutions possibles sont représentées par des courbes distinctes de l'espace
des phases. A partir d'une certaine situation, correspondant par exemple à une
valeur critique d'un paramètre, l'évolution peut présenter une bifurcation, avec
des branches distinctes issues d'un même point ; elle peut aussi présenter une
discontinuité. Au-delà de ce point, elle se poursuit selon une courbe ou une
autre, la courbe choisie dépendant de la valeur du paramètre critique.
C'est le cas, par exemple, pour des écoulements de fluides dont le paramètre
critique est le nombre de Reynolds [293], proportionnel à la vitesse ; selon la
valeur de ce nombre, l'écoulement peut être turbulent ou non ; il peut même
produire des oscillations périodiques de pression à la fréquence du
décrochement des tourbillons, oscillations que l'on entend par exemple dans le
bruit des éoliennes ; mais de toute manière, il reste déterministe.
3.5.2.3
Stabilité de l'évolution d'un système conservatif
Lorsqu'un système conservatif évolue, ses états successifs décrivent une courbe
(ligne de force) de l'espace des phases à 2n dimensions rapporté aux coordonnées
qi (i=1,2…n) et pi (i=1,2…n). Le théorème de Liouville démontre que, lors de cette
évolution, l'aire d'un petit élément de surface qipi de l'espace des phases se
conserve, sans nécessairement que l'élément de surface conserve la même forme ;
cette aire reste la même qu'à l'instant initial t0 de l'évolution. Des conditions initiales
d'évolution très voisines sont représentées par des points très voisins de l'espace
des phases, points qu'on peut englober dans un élément de surface petit ; lors de
l'évolution, l'aire de cet élément se conserve et reste petite.

Dans un espace des phases qui n'a que deux dimensions, q et p, la conservation
de l'aire d'un petit élément de surface au cours de l'évolution a pour
conséquence que des trajectoires d'évolution parties de points voisins restent
proches. Il y a là une forme de stabilité : une petite variation des conditions
initiales n'entraîne qu'une variation petite des évolutions correspondantes.

Mais dans un espace des phases qui a plus de deux dimensions, quatre par
exemple, la conservation de l'aire d'un petit élément de "surface" q1p1q2p2
peut aussi être obtenue lorsque cet élément rétrécit fortement pour un couple de
variables tout en s'allongeant fortement pour l'autre. C'est le cas, par exemple, si
-at
q1 varie dans le temps comme e at tandis que q2 varie comme e , le produit
at -at
e e restant égal à 1. Deux trajectoires d'évolution parties de points très
proches peuvent alors diverger considérablement au bout d'un certain temps,
traduisant une instabilité du système par hypersensibilité aux conditions initiales.
Cette propriété mathématique a des conséquences physiques souvent
spectaculaires.
3.5.2.4
Considérations sur la prévisibilité de l'évolution d'un système
L'évolution d'un système conservatif décrite par un ensemble d'équations
différentielles est bien toujours déterministe, mais il existe des cas où elle est stable
par rapport à une petite variation des conditions initiales et d'autres où elle est
instable. Une petite variation des conditions initiales peut provenir d'une imprécision
178
expérimentale comme d'une interaction négligée, et impacter alors la stabilité de
l'évolution.
Une prédiction d'évolution par extrapolation à partir de conditions où une évolution
est stable risque donc d'être gravement faussée lorsqu'elle concerne des conditions
où l'évolution est instable sans qu'on le sache. Même une prédiction par interpolation
risque d'être fausse si elle se base sur deux points A et B de l'espace des phases où
les lois d'évolution sont différentes, par exemple parce qu'il y a un point critique entre
A et B.
Il est évident que les prédictions par extrapolation et interpolation supposent la
stabilité des lois d'évolution, qui fait partie des hypothèses de base du déterminisme
scientifique ; oublier cette contrainte conduit à des erreurs de raisonnement. Les
paragraphes suivants montrent des cas d'instabilité d'une loi physique d'évolution.
3.5.2.5
Système dissipatif par frottements - Attracteur
Beaucoup de systèmes physiques qui évoluent sont soumis à des frottements,
internes ou externes, qui leur font perdre de l'énergie. Exemple : lorsque le pendule
simple de l'exemple précédent est soumis à une force de frottement proportionnelle à
sa vitesse angulaire et de sens opposé, son évolution dans l'espace des phases
rapporté aux axes  et ' est décrite par une spirale qui converge vers l'origine
='=0 lorsque t∞ : l'oscillation finit par s'arrêter.
Il est très remarquable, alors, que les courbes d'évolution dans l'espace des phases
convergent toujours vers le même point, l'origine, quelles que soient les conditions
initiales ; ce point est appelé « attracteur ». En outre, l'aire d'un petit élément de
surface de cet espace diminue en moyenne au cours d'une évolution, propriété
cohérente avec la convergence des courbes d'évolution vers un attracteur. Comme
dans le cas des systèmes conservatifs, cette diminution en moyenne d'aire peut avoir
lieu avec divergence dans une direction de l'espace et convergence plus rapide dans
une autre.
Ce phénomène de convergence de toutes les évolutions d'un système dissipatif par
perte d'énergie vers un même point attracteur de l'espace des phases est très
général. En outre, ce point est indépendant des conditions initiales de l'évolution : un
pendule simple finit toujours par s'arrêter au point le plus bas de ses oscillations.
Par contre, l'évolution d'un système conservatif dépend des conditions initiales et ne
converge pas vers un attracteur.
Définitions
On appelle « attracteur de l'espace des phases » d'un système la zone dans laquelle
se trouvera le point représentatif de son état après un temps très long, c'est-à-dire
lorsque t∞. La portion de l'espace des phases d'où partent toutes les courbes
d'évolution aboutissant à un attracteur donné est appelée « bassin d'attraction » de
cet attracteur.
3.5.2.6
Système dissipatif périodique avec échange d'énergie – Cycle limite
Il est fréquent qu'un système dissipatif échange de l'énergie avec l'extérieur, à la fois
en lui cédant de l'énergie et en recevant de l'énergie, tout en ayant une évolution
179
périodique. Dans l'espace des phases, il existe alors une courbe d'évolution unique,
fermée et stable par rapport aux conditions initiales, appelée cycle limite par
Poincaré, courbe vers laquelle tendent toutes les courbes d'évolution. Ce cycle limite
est un attracteur de toutes les courbes d'évolution dans l'espace des phases : quelle
que soit la position du début d'une courbe d'évolution, celle-ci tend toujours vers cet
attracteur lorsque t∞.
Exemple : le diagramme ci-dessous, d'après [291], montre à sa partie supérieure
l'équation dite de Van der Pol, qui décrit l'évolution d'un oscillateur à la fois
entretenu (apport d'énergie) et amorti (perte d'énergie). La courbe oscillante en
bleu décrit l'évolution de la variable oscillante x dans le temps. La courbe spirale
rouge inférieure montre l'évolution dans le plan des phases rapporté aux axes x
et v/ω0. L'évolution converge vers le cycle limite (courbe rouge en trait gras),
indépendant des conditions initiales.
Discussion déterministe
Du point de vue du déterminisme scientifique, il arrive qu'une loi d'évolution :

Dont on ignore la convergence vers une loi-attracteur, ou qu'on considère avec
un horizon de prévision d'évolution assez court, ne respecte pas le critère de
stabilité dans le temps. On doit alors la considérer comme non déterministe.

Dont on sait qu'elle converge vers une loi-attracteur, peut être considérée
comme déterministe dans le cadre d'une prévision d'évolution à long terme.
Exemple. Un satellite placé sur une orbite basse perd peu à peu de l'altitude du fait
du frottement avec la haute atmosphère. Son orbite, elliptique sur quelques
semaines, est en fait une spirale descendante ; sa vitesse de descente accélère
même au fur et à mesure que son altitude lui fait rencontrer des couches d'air plus
denses. Pour le maintenir le plus longtemps possible sur l'orbite désirée (et pour
180
contrôler son orientation) on prévoit d'éjecter un peu de gaz de temps en temps,
mais le réservoir de gaz s'épuise tôt ou tard, limitant la durée de vie du satellite.
3.5.2.7
Système à évolution quasi périodique
Lorsque l'évolution temporelle d'un système peut être caractérisée par plusieurs
variables qui ont, chacune et indépendamment, une évolution périodique à une
certaine fréquence, l'évolution du système est alors qualifiée de « quasi périodique ».
Le caractère périodique ou quasi périodique est indépendant du caractère
conservatif ou dissipatif.
Exemple. Soit un système de coordonnées astronomiques centré au centre du
Soleil et dont les axes sont fixes par rapport aux étoiles lointaines. Dans ce
repère, la position d'un point à la surface de la Terre présente quatre périodes
d'évolution (en négligeant les perturbations induites par l'attraction des autres
planètes) :
 La période d'évolution due à la rotation de la Terre autour de son axe (une
journée, soit 24 heures) ;
 La période d'évolution due à la rotation de la Terre autour du Soleil (une
année, soit 365.2425 jours) ;
 La période d'évolution due au mouvement de précession de l'axe de rotation
de la Terre, qui décrit un cône (en 25800 ans) ;
 La période d'évolution due au mouvement de nutation de l'axe de rotation de
la Terre, mouvement qui le fait osciller légèrement de part et d'autre de son
cône moyen de précession (en 19 ans).
Lorsqu'un système à évolution quasi périodique est dissipatif, l'évolution converge
vers un attracteur torique. C'est ainsi que l'évolution d'un système à deux fréquences
de base converge vers une courbe attracteur tracée à la surface d'un tore dans
l'espace habituel à 3 dimensions ; la courbe a deux fréquences de rotation : celle
autour de l'axe du tore et celle autour de la ligne centrale de son "cylindre".
3.5.2.8
Déterminisme et prédictibilité des systèmes – Autocorrélation
Une évolution quasi périodique est déterministe, comme une évolution périodique : à
partir de conditions initiales données et d'un modèle d'évolution représenté par un
système d'équations différentielles, on peut calculer cette évolution au moins
numériquement de proche en proche, et la prédire aussi longtemps à l'avance que
l'on veut.
Il existe une méthode mathématique de caractérisation de l'évolution d'un système
permettant de déterminer sa prédictibilité, c'est-à-dire la possibilité de déterminer la
valeur d'une de ses variables, x(t + k) à l'instant t + k, connaissant la valeur x(t) à
l'instant t. Cette méthode consiste à étudier la variation d'une fonction dite
d'autocorrélation temporelle, C(k), qui caractérise la similitude des valeurs de x(t + k)
avec ses valeurs antérieures x(t). Si C(k)0 lorsque t∞ l'évolution n'est pas
prédictible ; elle n'est ni périodique ni même quasi périodique, elle n'a aucune
régularité. Au contraire, si C(k) reste non nul à long terme, l'évolution présente une
régularité qui la rend prédictible.
181
3.5.2.9
Imprédictibilité et hasard
En pratique, il est impossible de distinguer une évolution dont on a constaté
l'imprédictibilité (éventuellement par calcul d'autocorrélation) d'une évolution au
hasard, si on ne connaît pas la cause du phénomène qui évolue ou si son
déclenchement n'est pas suffisamment reproductible pour que son déroulement le
soit aussi. C'est pourquoi beaucoup de scientifiques et de philosophes des sciences
attribuent au hasard des évolutions déterministes à résultat imprédictible, comme
celles que leur nature chaotique rend sensibles aux conditions initiales. Ils
confondent alors imprécision sur ces conditions et évolution au hasard, erreur
signalée dans l'introduction et due à une connaissance insuffisante des
phénomènes. Dans le cas de la sensibilité aux conditions initiales, les mesures de
variables initiales sont distribuées selon des lois statistiques, et c'est là que le hasard
intervient, pas dans les conséquences d'évolution qu'en tire la nature. En pratique,
une précision limitée de la connaissance du présent entraîne toujours une précision
limitée de la prévision du futur.
Si on connaît une évolution par une suite de valeurs mesurées à des instants
successifs, qu'on ne connaît pas la cause de cette évolution, et que la suite de
valeurs ne présente aucune régularité au test d'autocorrélation, on peut être tenté de
l'attribuer à un hasard postulé. S'il s'agit d'un phénomène naturel, il faut pourtant se
garder de le faire, ces phénomènes relevant tous du déterminisme étendu, où le
hasard n'intervient qu'en tant que choix d'un élément d'un ensemble de solutions du
modèle du phénomène ou en tant que conséquence d'un excès de complexité ; et
l'évolution du phénomène peut être apériodique ou chaotique, nous le verrons plus
bas. Il vaut donc mieux chercher scientifiquement à comprendre le phénomène.
3.5.2.10
Systèmes apériodiques – Attracteurs étranges
Lorsque l'évolution à long terme d'un système n'est ni périodique ni quasi périodique,
elle est dite apériodique. Elle ne présente alors aucune régularité permettant de
prévoir un état futur connaissant un ou plusieurs états du passé ; sa fonction
d'autocorrélation tend alors vers zéro quand t∞. L'évolution d'un tel système n'est
prévisible qu'à court terme, et à condition d'en connaître la loi au moins
expérimentalement.
Le déterminisme étendu régit même des lois de la nature à évolution
apériodique ; il le fait en décrivant ces lois le mieux possible en fonction des
progrès scientifiques.
Systèmes apériodiques dissipatifs
On démontre qu'une courbe représentant l'évolution temporelle d'un système
dissipatif dans un espace des phases possédant au moins 3 dimensions
(correspondant à au moins 3 degrés de liberté) converge vers un attracteur d'un type
particulier appelé « attracteur étrange ». Cet attracteur a les propriétés suivantes :

L'attracteur étrange est une courbe de dimension fractale (non entière) inférieure
au nombre de dimensions de l'espace des phases, comprise entre 2 et 3 dans le
cas d'un espace des phases à 3 dimensions.

Deux trajectoires d'évolution sur l'attracteur, partant de points aussi proches que
l'on veut, divergent : au bout d'un temps donné, parfois court, elles atteignent
182
des points de l'attracteur qui peuvent être bien plus éloignés que leurs points de
départ.
Connaissant le point de départ d'une évolution (sur l'attracteur) avec une
précision parfaite, cette évolution est déterministe et calculable pour un avenir
aussi lointain que l'on voudra. Mais la moindre erreur sur ces conditions initiales
peut entraîner des différences d'évolution importantes (exemple 1, exemple 2).
Il y a là une sensibilité extrême aux conditions initiales, sensibilité qui rend
imprévisible en pratique, avant son début, la fin d'une évolution commencée sur
l'attracteur, faute d'une précision infinie ; on peut seulement affirmer que le point
représentant son état restera quelque part sur l'attracteur. L'évolution est alors
dite « déterministe chaotique », et il ne peut exister d'algorithme utilisable
prédisant l'état (la valeur d'une variable impactée par l'évolution) à l'instant t + k
connaissant l'état à l'instant t, faute de stabilité par rapport aux conditions
initiales. Par contre, un instant même court après son début, une évolution
commencée sur l'attracteur a un déroulement et une fin parfaitement prévisibles.
Enfin, la connaissance de l'état actuel ne permet de reconstituer aucun état
passé.
Un tel attracteur est dit « étrange » parce que la dissipation d'énergie y fait converger
les courbes d'évolution en même temps que la sensibilité extrême aux conditions
initiales y fait diverger des évolutions commençant en des points très voisins.
Le chaos déterministe est donc un type d'évolution dont le résultat est calculable,
mais seulement quand il est trop tard, ce qui le rend inutilisable. Cette évolution n'est
pas quelconque, elle respecte la position sur l'attracteur étrange (quand le système
est dissipatif) et les lois physiques, notamment celles de la thermodynamique.
Systèmes apériodiques conservatifs
Le phénomène de chaos déterministe peut aussi affecter des systèmes conservatifs :
la sensibilité aux conditions initiales n'est pas réservée aux systèmes dissipatifs.
Exemple : problème des trois corps.
Exemple d'évolution vers un attracteur étrange : le système de Lorenz
Pour tenter de comprendre pourquoi les prévisions météorologiques étaient si peu
fiables, le météorologue Edward N. Lorenz [294] modélisa la convection naturelle (air
chaud qui monte, air froid qui descend) en la simplifiant beaucoup. Il aboutit au
système d'équations différentielles suivant :
𝑑𝑥
= 𝑝( 𝑦 − 𝑥 )
𝑑𝑡
𝑑𝑦
= −𝑥𝑧 + 𝑟𝑥 − 𝑦
𝑑𝑡
𝑑𝑧
= 𝑥𝑦 − 𝑏𝑧
𝑑𝑡
où x, y et z sont les coordonnées dans un espace des phases à 3 degrés de liberté,
p est le nombre de Prandtl, b est un facteur de forme et r un paramètre de contrôle
proportionnel au nombre de Rayleigh [293]. Ce système d'équations non linéaires est
déterministe, mais il est impossible à intégrer analytiquement dans le cas général,
183
ses solutions (calculées point par point en ordinateur) sont chaotiques, les courbes
d'évolution tendent vers un attracteur étrange, et une évolution commencée sur cet
attracteur a une extrême sensibilité aux conditions initiales. Cette sensibilité explique
l'impossibilité d'une prévision météorologique à long terme, la situation initiale ne
pouvant jamais être connue avec une précision absolue.
Nous avons donc là un exemple d'évolution déterministe chaotique et imprédictible.
3.5.2.11
Changement de loi d'évolution par bifurcation – Valeur critique
Il arrive que le changement de valeur d'un paramètre d'une loi d'évolution provoque
un changement de nature de la solution du modèle mathématique de cette loi
lorsque cette valeur franchit une certaine valeur, qualifiée de critique ; on peut ainsi,
par exemple, passer d'une solution stationnaire à une solution périodique, ou sauter
d'un bassin d'attraction à un autre.
Dans un espace des états où l'un des axes représente le paramètre à valeur critique
, et un autre axe une grandeur caractéristique x de la loi d'évolution considérée, la
courbe représentant x en fonction de alpha présente une bifurcation au point critique
=c ; cette bifurcation peut présenter deux ou plusieurs branches. Le point critique
est un point singulier du diagramme des phases. Une bifurcation correspond à la
transition d'un premier bassin d'attraction avec son attracteur à un autre bassin
d'attraction avec son attracteur.
Il peut ainsi arriver que, tant que <c, un système dissipatif évolue vers un point
attracteur, et dès que >c il évolue vers un cycle limite. La valeur =c est appelée
valeur critique du paramètre . Lorsque celui-ci franchit la valeur c, la solution des
équations d'évolution change. Ce changement peut être progressif, par exemple
lorsque la courbe d'évolution du système passe de la convergence vers un point
attracteur à la convergence vers un cycle limite de taille ponctuelle, qui grossit à
mesure que  s'éloigne de c. Le changement peut aussi faire passer d'une évolution
stable à une évolution instable, où l'une des variables de l'espace des états grandit
indéfiniment. On voit aussi sur l'exemple de la bifurcation le danger d'extrapoler ou
interpoler. Au sujet des bifurcations, voir aussi la turbulence [300].
Exemple. Le diagramme des phases d'un corps pur comme l'eau ci-dessous
représente les courbes de changement d'état en fonction du couple de variables
température et pression :
1 – courbe de sublimation
2 – courbe de fusion
3 – courbe de vaporisation
Pour une température et une pression au-delà du point critique, le changement
de phase entre liquide et gaz se produit sa façon continue, sans qu'une surface
séparatrice apparaisse. Au point triple, les trois phases coexistent.
184
Pression
Etat
solide
Etat
liquide
2
point
critique
3
1
point
triple
Etat
gazeux
Température
Diagramme des phases d'un corps pur comme l'eau
Il peut, enfin, arriver que le paramètre  présente une valeur critique c1 lorsque 
augmente, et une autre valeur critique, c2, lorsque  diminue. Cela se produit, par
exemple, lorsqu'il y a surfusion d'une eau très pure qui reste liquide à une
température inférieure à sa température de solidification à la pression donnée
(courbe 2 du diagramme ci-dessus) ; la surfusion cesse (l'eau se transforme
brusquement en glace) lorsque la température atteint environ -40°C ou lorsqu'on
agite l'eau.
Sur le plan déterminisme, retenons que le respect de la règle de stabilité de la loi
d'évolution est une condition importante, qu'on ne peut négliger. Nous verrons plus
bas un exemple d'instabilité de loi d'évolution en cosmologie : l'expansion de
l'Univers accélère depuis quelques milliards d'années. Voir aussi [313].
3.5.3
Etat quantique d'un système
L'état quantique d'un système à un instant donné est l'ensemble de ses variables de
Mécanique quantique, chacune ayant une certaine valeur à cet instant-là ; il est
décrit par sa fonction d'onde. C'est ainsi que l'état quantique d'un électron comprend
ses variables de position, de vitesse et de spin [22]. Toutes ces variables sont
scalaires [126]. Comme l'état quantique représente tout ce qu'on peut savoir sur le
système à l'instant donné (toute l'information à son sujet) il prend en compte toutes
les variables ; il n'y a pas de variable supplémentaire (cachée) qui pourrait nous
apprendre quelque chose de plus sur le système ; on dit que la Mécanique quantique
est complète.
Deux électrons ont même masse et même charge électrique, caractéristiques qui
sont constantes et identiques pour tous les électrons, donc ne sont pas des
variables, donc ne font pas partie de leur état quantique. On peut distinguer deux
électrons seulement par une différence d'état quantique, c'est-à-dire une différence
de position, de vitesse ou de spin. Même remarque pour deux protons ou d'autres
paires de particules : deux particules de même type sont toujours identiques,
185
interchangeables, elles ne diffèrent que par une ou plusieurs valeurs de variables de
leur état quantique.
3.5.3.1
Vecteur d'état
Les variables de l'état quantique d'un système à un instant donné constituent les
composantes d'un vecteur appelé vecteur d'état.
3.5.3.2
Espace des états
Les vecteurs d'état d'un système qui intéressent les physiciens ne sont pas
quelconques : ils appartiennent à un espace vectoriel [127] abstrait appelé « espace
des états » du système. Les vecteurs de cet espace ont des composantes qui varient
avec le temps si le système évolue.
Lorsque nous aborderons plus bas l'équation de Schrödinger, nous désignerons le
vecteur d'état associé à la fonction d'onde (r) par une notation due à Dirac |>,
appelée « ket psi ».
3.5.3.3
Réalité physique et représentation dans l'espace des états
La réalité physique d'un système nous est accessible par l'intermédiaire d'une
représentation mentale, élaborée en utilisant nos concepts, nos méthodes
d'abstraction et notre intuition.
C'est là un postulat matérialiste, point de vue systématiquement retenu dans ce
texte, par opposition à un point de vue spiritualiste, comme celui de Platon, qui
n'accorde de réalité qu'à des idées et prétend que la réalité physique est
inaccessible à l'homme.
La physique moderne va plus loin : elle postule que :

L'état d'un système est représenté par un vecteur de l'espace des états, vecteur
qui constitue tout ce que l'on peut savoir du système ;

L'évolution de ce vecteur d'état dans le temps représente tout ce que l'on peut
savoir de l'évolution du système.
Ces postulats reviennent à affirmer que la seule réalité physique, objective et digne
de confiance pour prédire les évolutions, qui nous soit accessible lorsqu'il s'agit de
l'échelle microscopique, est cette représentation mathématique ; aucune
représentation issue de nos sens ou de notre intuition n'est suffisamment objective et
précise, notamment pour les échelles infiniment petite et infiniment grande par
rapport à l'homme.
En somme, puisqu'il est impossible de voir un électron ou sa trajectoire, nous
devons faire confiance à la représentation mathématique qu'en donne la
Mécanique quantique. Puisqu'il est impossible de voir la courbure de l'espace
astronomique, nous devons faire confiance aux équations de la Relativité
Générale [328]. Puisqu'il est impossible de voir un trou noir, nous devons
déduire sa présence et sa masse des effets qu'il a sur l'espace environnant et sa
matière.
Et lorsque nous verrons, dans la suite de ce texte, que cette représentation de la
réalité est souvent probabiliste, quantifiée, et plus généralement inaccessible à
186
l'intuition née de nos sens (quand elle ne la contredit pas carrément), nous devrons
l'accepter quand même, parce qu'elle a fait ses preuves par la qualité des
explications de la réalité et des prédictions de son évolution qu'elle fournit, et qu'elle
n'a jamais été démentie.
Polémique
En matière de connaissance scientifique, les personnes qui refusent de « croire les
mathématiques » pour s'en tenir aux intuitions issues de leurs sens font preuve de
rigidité intellectuelle et d'excès de confiance en leur jugement. Elles postulent que
l'Univers est suffisamment simple pour que l'homme le comprenne d'instinct, ou que
l'homme est suffisamment génial pour que toute connaissance puisse être basée sur
ce qu'il sent ou imagine. Elles persistent dans leur erreur parce qu'elles ne mettent
pas leur représentation du monde à l'épreuve de la réalité, à laquelle elles croient
moins qu'à leur imagination et à leurs préjugés. (Voir le paragraphe "Intuition d'abord,
justification après" et l'exemple).
3.5.3.4
Espace des phases d'un champ et espace des états associé
Jusqu'ici nous avons considéré un système comprenant un nombre fixe n de
constituants, par exemple n points matériels pesants, et nous avons défini son
évolution dans l'espace des phases en fonction du temps. Cet espace des phases
avait un nombre fini de dimensions, par exemple 6n pour représenter les 6
composantes des positions et des vitesses des n points matériels.
Considérons à présent un champ, région de l'espace où règnent à la fois (par
exemple) des influences gravitationnelle, électrique et magnétique. Ce champ a une
infinité de points géométriques. En chaque point P on peut décrire l'état du champ
par 3 vecteurs, un pour le champ gravitationnel, un pour le champ électrique et un
pour le champ magnétique. L'ensemble de ces 3 vecteurs constituera le vecteur
d'état (global) du champ considéré en P, vecteur d'état qui a pour composantes les 9
composantes scalaires [126] des trois vecteurs champ gravitationnel, champ
électrique et champ magnétique selon trois axes Ox, Oy et Oz de l'espace des états
du champ.
Pour décrire l'état de l'infinité des points de l'espace des phases du champ, l'espace
des états associé aura un nombre infini de dimensions, à raison de 9 dimensions
pour chaque point géométrique du champ. Ce sera un espace vectoriel [127].
Retenons donc que la représentation de l'état et de l'évolution d'un système
comprenant un nombre fixe de constituants par un espace des états peut être utilisée
pour un champ comprenant une infinité de points.
3.5.3.5
Equipartition de l'énergie dans un champ – Stabilité des atomes
La théorie physique traditionnelle d'équipartition prévoit que l'énergie disponible dans
un système se répartit uniformément entre tous ses degrés de liberté : c'est là une
conséquence de l'homogénéité de l'espace. Lorsqu'il y a un champ de force dans
une région de l'espace, par exemple un champ électromagnétique agissant sur des
particules chargées comme des électrons ou des protons, ce champ a un nombre
infini de points, donc un nombre infini de degrés de liberté à côté duquel le nombre
de degrés de liberté fini des électrons et protons d'un atome donné est négligeable.
187
Chaque degré de liberté d'un atome donné devrait ainsi être associé à une
quantité infiniment faible d'énergie. Par conséquent, si les électrons d'un atome
étaient des corpuscules matériels munis d'une masse (comme les expériences le
prouvent) ils devraient avoir une énergie cinétique de rotation infiniment faible, donc
une vitesse trop faible pour que la force centrifuge associée leur permette d'équilibrer
l'attraction électrostatique du noyau ; ils devraient donc tomber instantanément sur
leur noyau, rendant tout atome instable !
Cette instabilité des atomes - supposés avoir une structure "planétaire" composée
d'un noyau central positif autour duquel tournent des électrons négatifs - est prédite
aussi par les lois de Maxwell [123]. D'après celles-ci, les électrons – charges
électriques tournant autour d'un noyau - devraient émettre des ondes
électromagnétiques, donc perdre de l'énergie emportée par ces ondes ; cette perte
d'énergie les ferait s'écraser rapidement sur le noyau.
Ces théories traditionnelles de l'atome construit selon un modèle planétaire
(répartition uniforme de l'énergie entre les degrés de liberté, ondes
électromagnétiques suivant les équations de Maxwell) ont donc un problème que
nous allons à présent aborder.
3.5.4
Les contradictions de la physique traditionnelle et de son
déterminisme
Les atomes sont stables, sinon notre Univers n'existerait pas ! La physique
traditionnelle, établie et vérifiée au niveau macroscopique et statistique, ne
s'applique, hélas, pas telle quelle au niveau atomique, nous venons de le voir. Ses
lois déterministes, si remarquablement précises et générales, sont fausses à cette
échelle minuscule où certains résultats sont probabilistes. Et le problème est très
grave puisque le postulat fondamental du caractère absolu de l'espace et du temps,
admis par Newton dans ses lois du mouvement [110] et par Maxwell dans sa théorie
de l'électromagnétisme [123], est contredit par l'expérience de Michelson et Morley,
qui a montré en 1887 que l'additivité des vitesses est fausse lorsque l'une des
vitesses est celle de la lumière.
En 1900, la physique butait aussi sur le désaccord entre les résultats du calcul des
échanges d'énergie électromagnétique par rayonnement entre un corps chaud et un
corps froid, et les observations expérimentales. Cette contradiction ne fut résolue
que lorsque Max Planck proposa, cette année-là, que l'on considère la quantité
d'énergie d'une émission d'ondes de fréquence  comme discontinue, multiple d'un
minimum h où apparaît une constante universelle, le quantum d'action h, ce qui fait
de cette énergie une grandeur quantifiée. Cette approche ouvrit la porte à la
physique quantique.
Puis, en 1905, Einstein utilisa la théorie de Planck pour décrire les échanges
d'énergie entre lumière et électrons constatés dans l'effet photoélectrique, ce qui lui
valut le prix Nobel [60]. Une des conséquences de ces travaux était considérable :
les ondes électromagnétiques, donc la lumière, avaient à la fois un caractère
ondulatoire (par définition) et corpusculaire, ce qui contredisait la physique classique
et son déterminisme. Ce déterminisme traditionnel finit d'être jeté bas la même
année, lorsqu'Einstein - encore lui - publia la théorie de la Relativité Restreinte [49],
qui met un terme au caractère absolu de l'espace et du temps de la physique
newtonienne à la base de ce déterminisme.
188
3.5.5
Des forces physiques étonnantes
Tout le monde sait depuis Newton [110] que l'attraction universelle entre deux corps
est inversement proportionnelle au carré de leur distance. L'attraction électrostatique
(ou magnétique) entre deux charges électriques (ou magnétiques) de signes
opposés (décrite par la loi de Coulomb) est aussi inversement proportionnelle au
carré de leur distance. Ces champs de forces "en 1/d 2" présents partout semblent
être une règle de la nature.
Hélas il n'en est rien, et la Mécanique quantique que nous aborderons plus bas
explique certaines lois pour le moins surprenantes, dont voici des exemples.

La force de Casimir due à la polarisation du vide avec apparition de paires
particule-antiparticule est "en 1/d4".

La loi de Van der Waals qui décrit l'attraction électrique entre deux atomes ou
molécules neutres suffisamment éloigné(e)s est "en 1/d7", produisant donc des
forces extraordinairement intenses à courte distance (quelques angströms). Ces
forces sont dues aux fluctuations quantiques des dipôles électriques formés par
deux atomes voisins, qui s'attirent alors du fait d'une force de Van der Waals.
Ces forces sont responsables de la cohésion entre molécules de liquides. Elles
expliquent aussi l'aptitude d'un petit lézard, le gecko, à marcher sur n'importe
quelle surface solide en y adhérant facilement. Il peut ainsi marcher sur la face
inférieure d'une plaque horizontale de verre parfaitement lisse, à laquelle ses
pattes adhèrent grâce à des poils incroyablement fins (moins de 0.25 micron de
diamètre) dont les molécules attirent celles de la plaque de verre grâce aux
forces de Van der Waals.

La force de répulsion moléculaire due au potentiel de Lennard-Jones est en
"1/d12". Elle apparaît quand il y a superposition des nuages de charge de deux
systèmes atomiques.

La force nucléaire agit de manière attractive entre quarks du noyau atomique
pour en maintenir la cohésion sous forme de protons et neutrons, bien que deux
protons ayant des charges de même signe tendent à se repousser ; le quantum
d'interaction correspondant est appelé gluon [18].
Sa portée est très faible (environ 1 fermi = 10-15 m, un dixième du rayon d'un
noyau atomique [137]) et son intensité augmente avec la distance ! (Détails)
J'ai cité ces forces étonnantes pour illustrer le fait que le déterminisme n'a rien
d'évident ou d'intuitif lorsqu'on veut comprendre les lois physiques et prédire certains
comportements, et qu'il faut souvent recourir à la Mécanique quantique pour
expliquer ce qui se passe.
3.5.5.1
Evolution et transformation
Transformations auxquelles s'applique le déterminisme. Cas des algorithmes
Le déterminisme concerne des systèmes dont l'état évolue dans le temps, c'est-àdire des systèmes qui subissent des transformations (terme qui pour nous inclura les
déplacements, parce que ceux-ci transforment des coordonnées). L'exécution d'un
algorithme est une transformation qui change ses données d'entrée en résultats.
Mais puisqu'un algorithme ne manipule que des données (c'est-à-dire des
189
abstractions), le déterminisme (qui régit les lois de la nature) ne s'applique pas, en
principe, à ses transformations, qui sont instantanées. Dans tout ce livre nous
devrions nous limiter à des transformations régies par des lois de la nature, connues
ou à découvrir ; nous n'appliquerons donc le déterminisme à des algorithmes qu'avec
prudence et parce qu'en modélisant des lois naturelles ils jouent un rôle important en
matière de pensée rationnelle. Et toute intervention magique, divine, transcendante
ou due à la psychokinèse sera exclue, car (faut-il le préciser ?) nous étudions le
déterminisme et la pensée rationnelle dans une optique matérialiste.
3.5.5.2
L'évolution nécessite une interaction avec échange d'énergie
L'évolution d'un système matériel sous l'action de forces ou d'un champ (électrique,
de gravitation, etc., voir [18]) exige un échange d'énergie entre des parties du
système et/ou avec l'extérieur. Cet échange se produit dans le cadre d'une
interaction [18] entre parties du système et/ou entre le système et son
environnement. La science qui étudie les échanges dus à l'influence d'un champ (par
opposition à l'influence d'une force de contact) est la Théorie des champs.
La théorie classique des champs est née avec la description par Faraday puis
Maxwell de l'influence d'un courant électrique, propagée par des ondes
électromagnétiques, sur un autre courant ou une charge électrique. Exemples :
théories de la gravitation de Newton et d'Einstein.
La théorie quantique des champs est née avec la quantification par Planck des
échanges d'énergie électromagnétique, tous multiples de h (h est la constante
de Planck) pour une fréquence  donnée, tous réalisés par des particules
appelées photons [117] porteuses des forces d'attraction et répulsion. Exemple :
électrodynamique quantique.
Le processus d'échange entre un système et un champ comprend trois étapes :

(1) Rayonnement du champ par sa source ;
Exemple 1 : une lampe électrique émet de la lumière, champ électromagnétique
qui transporte l'énergie de ses photons, particules sans masse. Un photon de
fréquence  a une énergie quantifiée égale à h.
Exemple 2 : un ressort qui pousse une masse exerce sur elle une force par
l'intermédiaire de champs électromagnétiques au niveau atomique, où ils
assurent la cohésion de la matière dans le ressort et dans la masse.

(2) Propagation du champ dans la matière ou dans le vide, à une vitesse
inférieure ou égale à la vitesse de la lumière dans le vide, c (il n'y a pas d'action
physique instantanée, la Relativité l'interdit) ;
Dans l'exemple 1, la lumière se propage à partir de la lampe.
Dans l'exemple 2, les champs de cohésion du ressort liés aux atomes de celui-ci
se propagent jusqu'au contact des atomes de la masse (liés par leurs propres
champs de cohésion).

(3) Absorption du champ par la cible.
Dans l'exemple 1, un atome de la cible éclairée par la source absorbe un photon
[117], par exemple, ce qui le fait passer dans un état supérieur d'énergie
190
potentielle. Ou un corpuscule touché par le photon reçoit une impulsion [20] qui
modifie sa quantité de mouvement [20], donc son énergie cinétique.
Dans l'exemple 2, le champ de cohésion du ressort exerce une force
électrostatique de pression sur les atomes de la masse ; le champ de cohésion
de la masse exerce une force de réaction sur les atomes du ressort, égale à la
précédente et de sens opposé.
Dans les deux exemples ci-dessus, les champs des processus d'interaction sont
toujours de type électromagnétique. En fait, il existe quatre types de champs de
force (voir [18]).
Il y a absence d'échange d'énergie lorsqu'aucune force ou champ n'intervient,
comme dans le mouvement rectiligne uniforme d'un système soumis à sa seule
inertie, où l'évolution est un simple déplacement sans poussée ni frottement.
3.5.6
1ère extension du déterminisme : fonctions d'onde et pluralité des états
Nous allons maintenant étudier successivement plusieurs phénomènes physiques
d'évolution dont les lois contredisent le déterminisme scientifique traditionnel, qu'il
faut donc étendre pour en tenir compte sous forme de déterminisme statistique, qui
complète le déterminisme scientifique pour en faire un déterminisme étendu.
3.5.6.1
Notions de Mécanique quantique
La Mécanique quantique est un ensemble d'outils mathématiques destinés à la
physique de l'infiniment petit, au niveau atomique ou subatomique, c'est-à-dire à une
échelle de dimension et de distance de l'ordre de taille d'un atome : 1 angström
(Å) = 10-10 m. Ces outils permettent le calcul et la modélisation de la réalité
physique ; ils ne constituent pas une science expérimentale de l'infiniment petit, rôle
que tient la physique quantique [325]. (Détails sur les postulats de la Mécanique
quantique).
L'outil Mécanique quantique n'est justifié que par la rigueur de ses démonstrations et
l'adéquation à la réalité physique des modèles mathématiques de qu'il apporte. Cette
adéquation est prouvée par la vérification, faite d'innombrables fois, que les résultats
des calculs de Mécanique quantique sont conformes à la réalité expérimentale, que
ce soit pour expliquer une expérience qu'on vient de faire, ou prédire le résultat d'une
expérience qu'on va faire. En somme, la Mécanique quantique est une science
mathématique, soumise aux contraintes de rigueur de toute science de ce type.
Non seulement la Mécanique quantique modélise bien la réalité physique au niveau
atomique, mais c'est notre seule façon de "voir", de comprendre et de prévoir ce qui
se passe à cette échelle-là. En somme, nous voyons ce monde minuscule à travers
des équations et des fonctions, qui décrivent et prédisent le comportement de ses
particules avec une fidélité parfaite, compte tenu des inévitables erreurs et
contraintes expérimentales.
La Mécanique quantique représente une avancée scientifique considérable par
l'étendue de ses conséquences et la qualité de ses prédictions. Elle fournit
aujourd'hui l'explication fondamentale de la stabilité des atomes, des échanges
d'énergie entre atomes à la base de toutes les lois de la chimie, des phénomènes
191
électromagnétiques comme le laser et la finesse des lignes observées en
spectroscopie, etc.
Or il se trouve que la Mécanique quantique nous oblige à réviser notre conception du
déterminisme, si nous voulons qu'il décrive toujours les conséquences des lois
physiques de la nature. Voici comment.
3.5.6.2
De la contingence à la probabilité
Depuis longtemps déjà, avant même qu'on parle de Mécanique quantique au XXe
siècle, les hommes ont dû compléter le concept philosophique de contingence par
celui de probabilité.
Une chose est dite contingente lorsqu'elle est susceptible d'être ou de ne pas
être, c'est-à-dire que son existence ou inexistence ne résulte pas d'un
raisonnement logique qui la rendrait nécessaire ou impossible.
Une situation que je constate en ce moment ne peut être contingente, puisque je
la constate, cela violerait le principe d'identité [16]. Elle a pu être contingente
dans le passé, tant qu'elle n'existait pas encore, mais elle ne l'est plus puisqu'elle
existe ; et (selon son évolution) elle sera peut-être contingente dans l'avenir.
Les hommes se sont aperçus que le concept de contingence ne suffisait pas pour
rendre compte de certaines situations, dont une description plus fidèle nécessitait
une probabilité d'existence. Exemple : si je lance un dé, le fait de sortir un 3 est
contingent, cela peut arriver ou non. Mais si je dis que la probabilité de sortir un 3 est
d'une chance sur six, je prédis le résultat du jet de dé avec plus de précision.
La Mécanique quantique utilise beaucoup les descriptions probabilistes. Elle montre,
par exemple, qu'on ne peut pas parler de position d'un électron à un instant donné,
mais de probabilité de position de cet électron à cet instant-là dans un espace de
dimension donnée autour d'un point précis. Si nous n'avions que la contingence
(« l'électron est en ce point ou il ne l'est pas ») la description de la réalité serait si
pauvre qu'elle serait inutilisable. Le concept de position précise d'une particule n'a
pas cours en Mécanique quantique, sinon en tant qu'approximation grossière.
Le mouvement d'une particule est calculé, en Mécanique quantique, à l'aide de lois
physiques parfaitement déterministes (au sens scientifique traditionnel) en utilisant
un formalisme appelé « hamiltonien » parce qu'il est basé sur l'énergie totale de la
particule. Lorsqu'on applique ces lois déterministes, le résultat est également
parfaitement reproductible : à un même jeu de données initiales correspond toujours
le même ensemble de comportements, décrits par un même ensemble de résultats –
ensembles qui ont en général plusieurs éléments, voire une infinité.
Mais cet ensemble de résultats ne décrit pas un mouvement précis comme en
mécanique classique, c'est-à-dire une trajectoire définissant des positions
successives précises à des instants précis. Il décrit seulement, à chaque instant, des
probabilités de présence et de vitesse de la particule au voisinage de divers points
de l'espace : la notion de trajectoire précise n'a plus cours, comme dans la physique
classique régie par le déterminisme traditionnel. Elle est remplacée par une région
de l'espace dont, à un instant précis, chaque point est associé à une densité de
192
probabilité de présence [28]. A chaque instant, la position de la particule apparaît
floue, elle est entachée d'imprécision ainsi que sa vitesse.
L'introduction de la notion de probabilité, mesurable par un nombre réel positif entre
0 et 1, est un progrès apporté par la démarche scientifique par rapport à la notion de
contingence des philosophes et au choix trop manichéen limité à "vrai" ou "faux".
3.5.6.3
Extension du déterminisme aux résultats imprécis et probabilistes
Nous devons donc, pour coller à la réalité physique, compléter le déterminisme
traditionnel par la possibilité qu'une situation de départ précise produise, pendant et
après une évolution, de multiples résultats, chacun accompagné d'une probabilité.
La Mécanique quantique prédit qu'une situation de départ peut, à l'arrivée,
donner un ensemble de 1, 2, 3… ou même une infinité de résultats. (On peut
aussi dire qu'elle prédit un ensemble d'évolutions possibles, chacune donnant un
résultat unique.)
Après des conditions initiales précises, la position d'un corpuscule mobile à un
instant donné est floue.
L'interprétation probabiliste de la position d'un corpuscule mobile à un instant
donné ne doit donc pas être « il est à une position précise que nous ne pouvons
connaître qu'assortie de sa probabilité ». Elle doit être « il est à la fois à toutes
les positions d'un ensemble prédéterminé, chacune affectée d'une probabilité » :
on parle de positions superposées. Notre conception habituelle d'une présence
en un seul point à un instant donné doit donc être étendue, dans le cas de la
physique quantique, à une présence simultanée en un ensemble de points où la
probabilité totale est 1. Une photographie théorique à temps de pose nul d'un
corpuscule mobile serait donc floue.
Dire que « chaque point de l'espace a une densité de probabilité de présence de
la particule » [28] est conforme à la vérité ; c'est une représentation utile pour
des phénomènes comme l'effet tunnel.
Nous verrons plus bas que la nature interdit de concevoir la dimension ou la
position d'une particule pesante en mouvement avec une précision meilleure que
sa longueur d'onde de Compton c ; pour un proton, par exemple, l'imprécision
minimum c est de l'ordre de son diamètre.
3.5.6.3.1
Le déterminisme statistique, complément du déterminisme scientifique
L'équation fondamentale de la Mécanique quantique, dite « de Schrödinger », qui
prévoit l'évolution d'un système à l'échelle atomique dans le temps et l'espace, donne
des résultats multiples (voire une infinité) distribués selon une loi statistique. C'est
une équation déterministe, mais ses solutions étant distribuées statistiquement, on
doit parler d'un nouveau type de déterminisme, le déterminisme statistique.
Si dans une expérience de physique atomique nous mesurons une variable, nous
pouvons trouver une ou plusieurs valeurs (appelées valeurs propres), la Mécanique
quantique précisant leur nombre exact lorsqu'il n'y en a pas une infinité. Et si nous
répétons la même expérience un très grand nombre de fois en mesurant chaque fois
la même variable, nous constatons que chacun des résultats prévus par la théorie
(chaque valeur propre) apparaît un pourcentage prévu de fois ; selon l'expérience,
193
les divers résultats possibles sont parfois équiprobables et parfois associés à des
probabilités différentes.
Prédictions de résultats du déterminisme statistique
Le déterminisme statistique complète le déterminisme scientifique à l'échelle
atomique, en prédisant la distribution des résultats de mesures éventuelles et
l'évolution dans le temps et l'espace des valeurs des variables d'état d'un système.
Selon les postulats 3 et 4 de la Mécanique quantique, la mesure d'une grandeur
physique ne peut donner comme résultat qu'une des valeurs propres [278] de son
observable [30].

Si le nombre de ces valeurs propres est fini (cas des variables discrètes),
chacune est affectée d'une probabilité de "sortir dans cette expérience" définie
par le postulat 4 (spectre discret).

Si le nombre de ces valeurs propres est infini (variables continues), chacune est
affectée d'une densité de probabilité définie par le postulat 4 (spectre continu) ;
dans chaque volume dV autour d'une valeur propre [278], la probabilité que le
résultat soit dans ce volume est le produit de la densité par dV.
Stabilité du déterminisme statistique
Comme le déterminisme scientifique qu'il complète, le déterminisme statistique
respecte la règle de stabilité : pour une expérience donnée, l'ensemble des résultats
possibles est toujours le même.
3.5.6.3.2
Différence entre déterminisme statistique et hasard pur
Lorsque les résultats mesurés de l'évolution des variables d'état sont distribués selon
une loi statistique de probabilités dont les paramètres sont prévus par la Mécanique
quantique pour l'expérience considérée, ils ne relèvent pas du hasard pur. Ces
résultats (valeurs possibles de chaque variable d'état) appartiennent à un ensemble
prévu par la Mécanique quantique, chacun affecté d'une probabilité : aucune valeur
n'est quelconque. Plus précisément, cet ensemble est le spectre des valeurs propres
du dispositif de mesure : le hasard naturel est alors limité au choix d'une des valeurs
du spectre, valeurs toutes connues avec précision avant chaque choix ; nous avons
déjà vu cela. Parfois un ensemble de résultats ne comprend que des nombres
entiers, parfois c'est un ensemble de nombres réels, ou de nombres complexes, ou
de vecteurs.
Exemple de résultats multiples d'une évolution par déplacement
Considérons l'expérience de Young de diffraction de la lumière monochromatique à
travers deux fentes, réalisée avec un faisceau si faible que ses photons [117] sont
émis un par un. Ces photons successifs arrivent sur l'écran en des points différents,
bien qu'ils soient tous produits et acheminés de manière identique : chaque position
de point est un résultat prédit par la Mécanique quantique avec une certaine
probabilité de se produire ; c'est là un comportement qui contredit le déterminisme
traditionnel, qui voudrait que tous les photons arrivent au même point.
Si le nombre de photons devient très grand, l'image globale formée par les impacts
donne bien des franges d'interférences, comme le prédit la théorie ondulatoire de la
lumière (voir schéma ci-dessous) : chaque photon est passé par les deux fentes à la
194
fois, les deux parties de son onde ajoutant ou soustrayant leurs amplitudes en tenant
compte des différences de phase, ce qui produit des franges d'interférence. Dans
cette expérience, un photon peut donc interférer avec lui-même.
Expérience de Young : diffraction de la lumière à travers deux fentes ("slits")
Sur l'écran ("screen") apparaissent des franges d'interférences
Un photon a une masse nulle [117], mais nous allons maintenant voir une possibilité
semblable de trajectoires simultanées pour des corpuscules pesants.
3.5.6.3.3
Dualité onde-particule, déterminisme dual et ondes de matière
L'expérience de Young, réalisée ci-dessus avec des photons, peut aussi être réalisée
avec des atomes, de masse non nulle et même des molécules. Elle illustre un aspect
fondamental de la physique quantique : selon l'expérience, une particule de masse
non nulle peut tantôt être considérée comme un corpuscule de matière, tantôt
comme un « paquet d'énergie » propagé par une onde. Cette onde est analogue à
l'onde électromagnétique d'un photon, à cela près que c'est une onde de probabilité ;
et c'est la superposition de deux telles ondes résultant du passage par les fentes qui
produit le phénomène d'interférence.
Les ondes de matière de Louis de Broglie
Le physicien français Louis de Broglie a été récompensé en 1929 par un prix Nobel
pour avoir découvert les « ondes de matière » associées aux électrons (et aux
particules de matière en mouvement en général) et affirmé :
A toute particule matérielle de masse m et de vitesse v doit être associée une
onde stationnaire de matière de longueur d'onde  stable telle que :

h
mv
où h est la constante de Planck, h = 6.6261 .10-34 joule.seconde.
C'est ainsi que la longueur d'onde associée à un atome isolé de fer 56Fe se
déplaçant à 1000 m/s est de 7 fermis (1 fm = 10-15m), à peine moins que le diamètre
195
de son noyau, qui est de 9.2 fm [137]. Mais la longueur d'onde d'un objet de taille
macroscopique, même en déplacement lent, est si petite que ses propriétés
ondulatoires sont impossibles à mettre en évidence : pour un caillou de 20 g lancé à
10 m/s on trouve  = 3.3 .10-18 fm.
La théorie des ondes de matière explique le fait que des électrons ne peuvent
parcourir de manière stable, autour d'un noyau atomique, que certaines orbites avec
des niveaux d'énergie précis. Pour être stable, stationnaire, une onde doit avoir une
longueur d'onde sous-multiple entier de la longueur de la trajectoire circulaire d'un
électron. De Broglie a pu ainsi retrouver et confirmer l'orbite de l'électron d'un atome
d'hydrogène calculée par Niels Bohr, avec son rayon de 0.529 Å (1 Å = 10-10 m)
(Dans l'hypothèse simplificatrice de Bohr un électron d'un atome décrit des
orbites circulaires autour du noyau. L'existence des ondes de matière explique
que cet électron ne puisse parcourir que des trajectoires comprenant un nombre
entier d'ondes de matière, trajectoires qui correspondent à des états
énergétiques bien précis ; si la longueur d'une trajectoire ne correspondait pas à
un nombre entier d'ondes de matière, ces ondes s'annuleraient par
interférences ; la trajectoire étant alors instable, l'électron la quitterait pour une
trajectoire stable.)
Une telle dualité onde-particule, impossible dans le cadre du déterminisme
traditionnel, est tout sauf intuitive : comment de la matière peut-elle se comporter
comme une onde ? L'explication relève de la Mécanique quantique, et de son
déterminisme statistique.
3.5.6.3.4
Trajectoire d'un corpuscule
Les résultats de la Mécanique quantique contredisent souvent notre intuition. Ils nous
obligent à comprendre la nature à travers des modèles mathématiques (voir détails).
Fonction d'onde
Au concept classique de trajectoire d'un corpuscule la Mécanique quantique
substitue celui d'état dépendant du temps t. Exemple : en négligeant le spin [22],
l'état quantique d'un corpuscule de masse non nulle tel que l'électron, avec ses
composantes de position et d'impulsion définissant un vecteur d'état, est caractérisé
par une fonction d'onde (r, t), prenant ses valeurs dans le corps des nombres
complexes [126], et qui contient toutes les informations que l'on peut connaître sur le
corpuscule ; dans (r, t), la variable vectorielle r a pour composantes les
coordonnées de position rx ; ry ; rz et la variable t représente le temps (l'instant). Une
fonction d'onde (r, t) donnée appartient à un espace vectoriel dit "de Hilbert" [326].
La fonction d'onde évolue dans le temps de manière parfaitement déterministe au
sens traditionnel. Elle est interprétée comme une amplitude de probabilité de
présence, nombre complexe ayant un module et une phase. Les positions possibles,
dont les coordonnées définissent un vecteur r, forment un continuum (espace
continu). La probabilité pour que la particule soit, à l'instant t, dans un élément de
volume d3r = dxdydz autour du point r(rx ; ry ; rz) est proportionnelle à d3r et
infinitésimale : on la note dP(r, t). La densité de probabilité [28] correspondante est
|(r, t)|² si l'on pose dP(r, t) = C|(r, t)|² d3r, où C est une constante de normalisation
définie par :
196
1
  | (r, t) |2 d 3 r
C
Ne pas confondre le nombre réel positif ou nul densité de probabilité |(r, t)|² et le
nombre complexe amplitude de probabilité (r, t) : |(r, t)|² est le carré scalaire [127]
de (r, t), produit de (r, t) par son complexe conjugué *(r, t).
L'évolution dans le temps de l'état du corpuscule (notion qui se substitue à celle de
trajectoire) est alors décrite par les solutions de l'équation de Schrödinger - solutions
déterministes au sens traditionnel - et toute combinaison linéaire [29] de telles
solutions correspondant à une distribution de probabilités.
Nature de ces ondes
Les ondes dont il s'agit ici ne sont pas des ondes électromagnétiques comme la
lumière, ou des ondes de pression comme celles des sons, mais des ondes
d'amplitude de probabilité de présence. Une telle onde ne décrit pas les variations
d'un champ électrique ou d'une pression, elle décrit la manière dont une particule de
matière en mouvement se déplace ; c'est une fonction du temps et de la position,
nombre complexe avec son amplitude et sa phase par rapport à une origine.
Nous devons accepter cette dualité corpuscule-onde de probabilité, avec ses
conséquences déterministes qui la font apparaître tantôt comme de la matière, tantôt
comme une onde, selon les circonstances expérimentales. Ce déterminisme dual,
qui implique deux aspects très différents d'une même réalité, est loin du
déterminisme traditionnel de la physique de Newton ; il nous faut pourtant l'admettre
et accepter lorsque c'est nécessaire d'avoir deux représentations mentales de la
réalité, avec des comportements distincts qui se complètent sans jamais se
contredire. Cette dualité de représentations fait l'objet du principe de
complémentarité.
Remarque : un double modèle de la réalité existe aussi concernant la masse au
repos m d'une quantité de matière et son énergie E, ces deux variables étant reliées
par la célèbre équation d'Einstein E = mc2, équation qui décrit comment l'une des
formes (par exemple la masse) se transforme en l'autre (ici l'énergie).
Conséquences de l'existence des ondes de probabilité de la fonction d'onde
Ces ondes pénètrent des barrières de potentiel d'un champ de force comme un son
pénètre un mur ; elles traversent la matière comme la force de gravitation. Exemple :
un noyau atomique lourd peut subir une désintégration radioactive et se décomposer
en un noyau plus léger et une particule alpha (noyau d'atome d'hélium comprenant
deux protons et deux neutrons). Bien que la particule alpha n'ait pas assez d'énergie
pour vaincre la barrière de force entourant le noyau atomique lourd, sa nature
ondulatoire fait qu'elle a une probabilité non nulle de passer à travers cette barrière
et de s'éloigner du noyau, d'où la désintégration.
La nature ondulatoire d'un électron ou d'un proton lui permet :
197

D'être en plusieurs endroits à la fois, avec des probabilités précises fonction de
l'endroit ;

D'avoir plusieurs vitesses à la fois ;

De parcourir plusieurs trajectoires à la fois, etc.
Etat quantique et information
La Mécanique quantique postule à la fois le déterminisme scientifique et le
déterminisme statistique.

Des informations complètes sur un système (son état quantique) à un instant
donné déterminent toute son évolution ultérieure (l'évolution de son état
quantique).

Si, au début de l'évolution d'un système, on dispose de toute l'information
concernant ce système (son nombre de degrés de liberté), on doit disposer de la
même quantité d'information à la fin de l'évolution ; aucune perte d'information
n'est concevable [304].
En outre, une particule peut se déplacer, mais à tout moment elle est quelque
part : sa probabilité totale de présence dans l'espace reste égale à 1.
Trajectoires d'un électron autour d'un noyau atomique : orbitales
Les déplacements et les configurations stables de particules, prévues par la
Mécanique quantique, résultent de l'équation de Schrödinger, que nous verrons un
peu plus loin ; elles sont surprenantes. C'est ainsi que, loin de tourner autour d'un
noyau atomique selon une trajectoire plane elliptique comme celle de la Terre autour
du Soleil, un électron peut parcourir, selon son énergie, une région de l'espace
(appelée orbitale) en forme de sphère, de paire de lobes, etc. (voir figure ci-dessous)
et il faudra interpréter ces "orbites" à trois dimensions comme des régions de
l'espace proche du noyau où chaque petit volume autour d'un point a une densité de
probabilité de présence de l'électron [28]. Dans la figure ci-dessous, issue de [124],
les surfaces en forme de sphère, à gauche, et de paire de lobes, à droite,
représentent la partie de l'espace autour du noyau où un électron a une probabilité
maximale de se trouver.
198
Orbitales électroniques en forme de sphère ou de lobes
("nucleus" désigne le noyau de l'atome)
Dans le graphique ci-dessous, issu de [105] page 863, l'éloignement r du noyau (en
abscisse) est exprimé en rapports r/r1, où r1 est le rayon théorique de "l'atome
d'hydrogène de Bohr", r1 = 0.5 Å (où 1Å = 10-10m). La probabilité de trouver l'électron
à l'intérieur d'une coquille sphérique de rayons r et r+dr est W(r)dr=4r²|(r)|²dr.
On voit que :

La probabilité de présence très près du noyau (où r tend vers 0) est non nulle
pour chacune des trois couches électroniques ! Ceci ne se produit que lorsque le
nombre quantique l de moment angulaire orbital [104] vaut l=0.

La couche de niveau d'énergie n=1 a une distance de densité de probabilité [28]
maximum. La couche de niveau n=2, supérieur de 10.2 électronvolts (eV) au
niveau d'énergie de la couche 1, en a deux. La couche n=3, de niveau 12.1 eV,
en a trois.
199
Densité radiale de probabilité de présence de l'électron W(r)=4r²|(r)|²
dans les couches n=1, 2 ou 3 pour un atome d'hydrogène
On voit à quel point les "trajectoires" tridimensionnelles réelles de l'électron sont
éloignées du modèle "planétaire" plan. En fait, le mot trajectoire ne s'applique pas du
tout à la rotation d'un électron autour de son noyau ; il vaut mieux parler de position
floue par superposition ou de région de présence. Enfin, le "diamètre" même d'un
atome varie avec son énergie, et si on pouvait le voir à un instant donné avec ses
électrons l'image serait floue.
3.5.6.3.5
Théorie de la résonance chimique
Certaines molécules chimiques comme le benzène C 6H6 ont plusieurs structures
possibles où les atomes de carbone sont reliés, entre eux et à des atomes
d'hydrogène, par des liaisons de valence partageant des électrons. On démontre en
Mécanique quantique que la structure stable (état stationnaire) d'une telle molécule,
correspondant à l'énergie potentielle la plus faible, a une fonction d'onde
combinaison linéaire des diverses fonctions d'onde des structures possibles. On peut
considérer que la structure stable de la molécule oscille en résonance entre les
diverses structures équiprobables de base. Nous verrons cela en détail avec
l'équation de Schrödinger.
3.5.6.3.6
Conséquences pour le déterminisme
Le déterminisme naturel peut donc produire plusieurs conséquences simultanées à
partir d'une même cause, alors que le jet d'un dé peut produire une valeur parmi 6
seulement.
Il nous faut accepter cette forme étendue de déterminisme même si elle nous
paraît intuitivement déroutante. Si nous acceptons qu'une équation en x de la
forme ax2 + bx + c = 0, qui modélise correctement un phénomène physique
comme la trajectoire verticale d'un boulet de canon, puisse avoir deux solutions
(positions où le boulet est à une certaine hauteur) et non une, pourquoi
200
n'accepterions-nous pas que l'équation d'évolution de Schrödinger en ait aussi
plus d'une ?
Mesurée à un instant donné, la valeur d'une variable de l'état résultant est choisie
parmi celles d'une distribution statistique de valeurs prévues par la Mécanique
quantique, l'ensemble des valeurs propres [278] de l'opérateur représentant la
variable. Le hasard n'est pas, dans le cas d'une mesure, le résultat d'une
connaissance insuffisante de ce qui se passe. C'est la manière de la nature de
choisir un résultat dans un ensemble prévu par la théorie, résultat muni d'une
probabilité calculable d'être trouvé si l'on refait une même expérience un très grand
nombre de fois. Nous l'avons déjà vu en analysant la notion de hasard.
Notons bien que la valeur de chaque résultat de mesure possible n'est pas due au
hasard, c'est une valeur précise appartenant à un ensemble bien défini ; c'est le
choix entre les divers résultats possibles lors d'une mesure qui est fait au hasard.
Résultat d'une mesure
En physique quantique, le résultat d'une mesure est un ensemble connu avant la
mesure, et le choix par la nature d'un élément de cet ensemble résulte du hasard
(3ème et 4ème postulats de la Mécanique quantique). Il faut donc considérer ce
choix au hasard lors d'une mesure comme une évolution particulière de la
nature, évolution dont le résultat n'est prédictible qu'au niveau de l'ensemble,
pas à celui de l'élément choisi, tout comme l'ordre de décomposition radioactive
des atomes d'un échantillon d'uranium 238. Ce sont là des cas où la nature refuse de
satisfaire notre volonté de prédire de manière unique l'élément choisi.
Certains comportements déterministes de la nature,
comme les positions superposées de corpuscules en mouvement
et les choix aléatoires parmi les valeurs précises d'un ensemble,
impliquent de l'imprédictibilité.
Le déterminisme n'est donc pas incompatible avec des
cas bien définis de comportement aléatoire, imprécis ou
imprédictible ; il a été étendu pour en tenir compte.
Le choix au hasard d'une valeur, discrète ou continue, par la nature (c'est-à-dire d'un
élément particulier d'un ensemble prédéterminé de solutions d'un modèle
mathématique) se produit dans un cas et un seul : en physique quantique, lors du
passage du niveau atomique au niveau macroscopique, phénomène d'évolution
physique dit « de décohérence », rencontré lors d'une mesure (où le dispositif de
mesure interagit avec le système mesuré) ou de l'interaction du système à l'échelle
atomique avec son environnement macroscopique. Je ne connais pas d'autre cas
où le hasard intervient dans une évolution naturelle. Et comme la Mécanique
quantique prévoit la probabilité de chaque choix de valeur par la nature, on en a fait
201
le 4ème postulat de la Mécanique quantique. Comme les autres postulats de la
Mécanique quantique, celui-ci a été vérifié d'innombrables fois depuis des décennies
et n'a jamais été contredit.
Chaîne et arborescence de causalité
Compte tenu de l'existence possible de multiples conséquences d'une cause
donnée, on doit donc décrire l'évolution possible en termes d'arborescence de
causalité plutôt que de chaîne de causalité. Chaque état du système est représenté
par un nœud de l'arborescence qui peut être suivi de plusieurs branches
conséquences, voire d'une infinité. L'évolution effective d'un système, dont on suit
une variable (scalaire [126] ou vectorielle [127]) à l'échelle macroscopique, est donc
décrite par la suite unique des nœuds-états atteints dans l'arborescence des
évolutions possibles, suite qui représente la chaîne effective de causalité.
Position floue plutôt qu'aléatoire
Nous verrons au paragraphe suivant que l'équation fondamentale de la Mécanique
quantique, l'équation de Schrödinger, ne prédit pas de position aléatoire, mais des
positions superposées floues associées à des paquets d'ondes de probabilité. C'est
la mesure d'une variable qui introduit un choix aléatoire, et plus précisément le
passage de l'échelle atomique à l'échelle macroscopique avec son échange
irréversible d'énergie : on dit alors qu'il y a décohérence, avec réduction de la
fonction d'onde.
Nous ne savons pas aujourd'hui pourquoi ce changement d'échelle provoque le
choix d'un élément de l'ensemble des valeurs possibles, ni pourquoi ce choix est
aléatoire. [91] suppose qu'il existe une influence non prise en compte par la
Mécanique quantique, probablement due à la gravitation et à la Relativité.
Irréversibilité du passage de l'échelle atomique à l'échelle macroscopique
La transition entre l'échelle atomique et l'échelle macroscopique introduit une
évolution régie par un déterminisme particulier, d'un type nouveau inconnu du
déterminisme classique, la décohérence. C'est une évolution irréversible qui se
produit dès qu'une mesure, ou l'interaction du système atomique avec son
environnement macroscopique, a perturbé le résultat ensembliste. Cette évolution a
un résultat non calculable ; on suppose qu'il le restera tant qu'il n'existe pas de
théorie relativiste de la physique quantique [325], basée sur une interaction
gravitationnelle quantifiée [18].
Nous avons vu plus haut que la décohérence est le seul cas où le hasard intervient
dans une évolution naturelle ; et ce cas disparaît en admettant la théorie de Hugh
Everett. (Voir en fin de texte la table résumant les cas d'imprédictibilité.)
3.5.6.4
Equation fondamentale de la Mécanique quantique (Schrödinger)
L'équation fondamentale qui décrit l'évolution dans le temps du vecteur d'état |(t)>
d'un objet quantique en fonction de l'observable [30] H(t), opérateur associé à
l'énergie totale du système (son hamiltonien), est l'équation différentielle de
Schrödinger. Elle s'écrit :
202
iä d/dt|(t)> = H(t)|(t)>
où i2=-1 et ä est un quantum de spin [22] qui vaut ä = 1.0542 .10-34 joule.seconde
(ä = h/2 où h est la constante de Planck).
Cette équation décrit une évolution invariante par une symétrie temporelle qui
change le sens du temps. Elle est du premier ordre par rapport au temps t et
complètement déterministe : les mêmes conditions initiales produisent le même
ensemble de solutions, c'est-à-dire la même évolution dans le temps et l'espace.
L'équation de Schrödinger décrit donc une évolution déterministe au sens
scientifique traditionnel.
Cette équation de description de l'évolution temporelle et spatiale d'un corpuscule en
Mécanique quantique joue le même rôle que les équations du mouvement qui
déterminent une trajectoire en mécanique classique, équations elles aussi
déterministes et symétriques par rapport au temps. Mais un résultat de l'équation de
Schrödinger est un vecteur d'état |(t)> fonction du temps, d'où on peut déduire la
densité de probabilité [28] de présence de l'objet en chaque point de l'espace à
chaque instant t. Ce n'est pas une trajectoire, et à un instant donné l'objet n'est pas
en un point précis mais dans tout le voisinage de ce point, où la probabilité de le
trouver est maximale et diminue avec l'éloignement ; et l'instant suivant, son
mouvement l'emportera un peu plus loin.
Contrairement, donc, aux interprétations erronées que l'on trouve ici et là sur ses
résultats, l'équation de Schrödinger est parfaitement déterministe. Mais ses solutions
qui s'appliquent à un déplacement ne décrivent pas une trajectoire de particule, elles
décrivent l'évolution de son vecteur d'état en fonction du temps, dont on peut déduire
à tout instant donné une position nécessairement floue de probabilité maximum.
Combinaison linéaire d'états, superposition et imprécision
Le caractère linéaire de l'équation de Schrödinger fait que toute combinaison linéaire
[29] de ses vecteurs solutions (associés à des fonctions d'onde) est aussi une
solution, à condition que la probabilité de présence dans l'espace tout entier soit 1. Il
en résulte :

La possibilité pour un état quantique d'être la somme (cas particulier d'une
combinaison linéaire) de deux états ou plus. Exemples : l'état d'un atome qui
serait à la fois dans deux niveaux d'énergie différents ; l'état d'un électron qui
serait à deux endroits à la fois. On dit qu'un tel état est une superposition d'états.

La possibilité pour une fonction d'onde d'être combinaison linéaire d'une infinité
de fonctions d'onde dont la superposition définit un paquet d'ondes de probabilité
accompagnant une particule en mouvement. La position de cette particule à un
instant donné a alors un caractère flou ; elle ne peut être définie à mieux qu'une
demi-largeur près du paquet d'ondes qui l'accompagne (voir ci-dessous).
203
Combinaison linéaire d'une infinité de fonctions d'onde (superposition)
Une solution de l'équation de Schrödinger combinaison linéaire d'un nombre infini de
fonctions d'onde, où le coefficient (« poids ») de chaque fonction est tel que la
probabilité de présence dans l'espace entier est 1, peut se traduire par l'interprétation
suivante, due à Feynman : pour aller d'un point A à un point B, un corpuscule
emprunte simultanément toutes les trajectoires possibles entre ces deux points,
chaque trajectoire étant affectée d'une probabilité correspondant à son poids dans la
combinaison linéaire : on dit qu'il y a superposition des trajectoires-solutions [275].
Une combinaison linéaire d'un nombre infini de fonctions d'onde permet aussi de
passer des états de position d'une particule à ses états d'impulsion, ou inversement
[125]. Cette possibilité purement mathématique de deux descriptions différentes
traduit l'unicité de la réalité physique : ces deux types d'états d'une particule sont
conséquences des mêmes lois de mouvement et de la même énergie totale ; ce sont
donc des formulations de la même fonction d'onde (r, t) dans deux bases
différentes d'espaces de fonctions.
Un postulat fondamental
L'équation de Schrödinger fait partie des postulats de la Mécanique quantique.
3.5.6.4.1
Impossibilité de décrire des phénomènes sans symétrie temporelle
La Mécanique quantique remplace les trajectoires exactes de la mécanique
classique par des zones de présence floues sans renoncer à la symétrie temporelle.
Cette symétrie entraîne une limitation lourde de conséquences : basée sur l'équation
fondamentale de Schrödinger ci-dessus et la symétrie CPT, la Mécanique quantique,
est inadaptée à la description de phénomènes où le temps ne peut aller que du
présent vers le futur, notamment ceux qui sont irréversibles.
Pourtant, ces phénomènes sont nombreux à l'échelle de la physique quantique.
Exemples :

Désintégration spontanée de particules par radioactivité, où une particule
désintégrée ne peut spontanément se recomposer ;

Désexcitation d'un atome qui revient à son état d'énergie fondamental en
émettant un photon [117], et qui ne peut de lui-même s'exciter de nouveau pour
revenir à l'état précédent ;

Mesure d'un résultat, qui interfère nécessairement avec le système mesuré,
nous l'avons déjà signalé : toute mesure de physique quantique entraîne une
irréversibilité. Il y a là un problème que la physique quantique a donc été obligée
de prendre en compte en dépassant l'équation fondamentale de Schrödinger.
Nous dirons plus bas quelques mots sur l'irréversibilité au sens Mécanique
quantique et au sens thermodynamique.
Insistons sur un point : l'équation de Schrödinger décrit l'évolution dans le temps
et l'espace d'un système tant que celle-ci est réversible. Elle ne décrit pas
l'évolution irréversible qu'est la décohérence, qui transforme une superposition
d'états en un état unique choisi parmi les valeurs propres [278] de l'observable
du dispositif. Ce choix d'état unique est fait au hasard, la Mécanique quantique
prévoyant la fréquence d'apparition de chaque valeur possible.
204
3.5.6.4.2
Inadaptation à la gravitation et à son espace courbe relativiste
La Mécanique quantique suppose aussi un espace plat [109], donc l'absence d'effet
gravitationnel de courbure de l'espace, résultant de la présence d'une masse selon la
Relativité Générale. Les efforts des scientifiques depuis les années 1930 pour
développer une physique à la fois quantique et relativiste n'ont abouti qu'à des
progrès modestes.
Il est possible, comme le suggère [91] pages 475 et suivantes, que la décohérence choix aléatoire d'un état parmi tous ceux qui existent simultanément en superposition
- provienne de l'influence perturbatrice de la gravitation, avec sa courbure d'espace ;
la gravitation est la seule des 4 forces fondamentales [18] à pouvoir agir sur l'état
quantique cohérent lorsqu'on passe de l'échelle atomique à l'échelle macroscopique.
Cette possibilité est vraisemblable au vu des conclusions de l'expérience de
décohérence faite au laboratoire LKB de l'Ecole Normale Supérieure, mais nous
n'avons pas encore de théorie unifiant la Mécanique quantique et la Relativité (voir le
paragraphe "Validité des lois de la Mécanique quantique à l'échelle macroscopique").
3.5.6.5
Etats finaux d'un système macroscopique
La possibilité que l'état initial d'un système ait pour conséquences possibles après
évolution plusieurs états finaux, équiprobables ou non, existe même à l'échelle
macroscopique. C'est ainsi que lors de l'écoulement turbulent d'un fluide (écoulement
dont le vecteur vitesse en un point critique peut subir des variations irrégulières de
direction et de grandeur), un point caractéristique P de son espace des phases peut
évoluer vers n'importe lequel des points P1, P2, P3, etc. : on dit qu'il y a « diffusion »
dans l'espace des phases.
La diffusion est un phénomène chaotique faisant passer, à chaque transformation,
un système d'un état initial avant un point critique de bifurcation à un état final après
bifurcation choisi parmi plusieurs états finaux plus ou moins dispersés. Ce
phénomène est irréversible et augmente l'entropie du système [25].
Parfois, après une certaine évolution de ce type, la présence du point représentatif
de l'état du système est beaucoup plus probable au voisinage de certains points de
l'espace des phases appelés « attracteurs », points vers lesquels l'évolution
converge.
A l'évidence, l'existence et le caractère chaotique du phénomène de diffusion à
l'échelle macroscopique, ainsi que la convergence de son état vers un point
attracteur choisi parmi plusieurs, nous obligent à étendre le déterminisme même en
dehors de l'échelle atomique lors du franchissement d'un point de bifurcation (et
seulement dans ce cas) :

un état initial avant bifurcation peut avoir pour conséquences possibles après
bifurcation un ensemble d'états finaux, dont un seul se réalisera à l'issue de
chaque transformation ;

une transformation peut être chaotique et/ou irréversible. (Nous reviendrons plus
bas sur l'irréversibilité.)
205
3.5.7
2e extension du déterminisme : superpositions et décohérence
Dans l'exposé précédent, l'état d'un système était "choisi" par une mesure entre
plusieurs états possibles, chacun assorti d'une probabilité (ou d'une densité de
probabilité) qui décrit une fréquence d'apparition lorsqu'on multiplie les mesures ; ces
états s'excluaient mutuellement. Une expérience donnée ne produisait donc qu'un
résultat mesuré unique, même si celui-ci faisait partie d'un ensemble de résultats
possibles.
Exemple : à un instant donné, la mesure d'énergie d'un atome donnait une
valeur unique, choisie par l'appareil de mesure (macroscopique) parmi
l'ensemble des valeurs prévues par la Mécanique quantique (valeurs propres
[278] de l'opérateur représentant le dispositif de mesure).
Le choix étant imprévisible, même s'il a lieu avec une probabilité prédéterminée dans
un ensemble prédéterminé, on dit que cette évolution de la nature relève d'un
déterminisme statistique, qu'il faut se garder de confondre avec un hasard pur où le
résultat serait n'importe quoi.
Il est indispensable que le choix du résultat soit limité à des valeurs qui ne
contredisent pas une loi de la physique, comme la conservation de l'énergie ou du
moment cinétique du début à la fin de l'expérience.
3.5.7.1
Superposition d'états et décohérence
Mais ce choix de résultat n'est pas nécessairement instantané : il peut arriver qu'un
certain nombre d'états coexistent pendant un certain temps, avant que l'un d'eux soit
choisi par une interaction avec l'environnement macroscopique (en l'absence
d'intervention expérimentale comme une mesure) et perdure. Les états qui coexistent
temporairement sont alors appelés « états cohérents » ou « états superposés ». Une
mesure est une transcription à l'échelle macroscopique (la position d'une aiguille...)
de l'état d'un système quantique [1] ; c'est une opération de choix qui en retient un
seul à l'échelle macroscopique, une évolution particulière appelée décohérence.
(Rappelons-nous qu'on peut aussi interpréter la multiplicité d'états superposés
comme le fait qu'un état de départ a pour conséquences un ensemble
d'évolutions, chacune terminée au bout d'un certain temps par un état unique,
dont celui choisi par la nature lors de la décohérence (voir l'expérience du
laboratoire LKB.)
C'est ainsi qu'à un instant donné :

Une molécule peut se trouver simultanément dans plusieurs états d'énergies
différentes ; son état quantique global (unique, par définition) est une
superposition d'états.

Un photon peut se trouver dans deux états de polarisation opposés.

Un électron peut se trouver simultanément en deux endroits différents, ou même
dans l'infinité d'endroits de son paquet d'ondes.

Le "chat de Schrödinger" pourrait être à la fois mort et vivant, dans deux états
superposés, si l'interaction avec leur environnement ne limitait pas tellement la
durée de vie superposée de « systèmes » macroscopiques, où l'état visible
unique a été choisi statistiquement.
206
La fonction d'onde d'une superposition d'états quantiques est une combinaison
linéaire des fonctions d'onde de chacun des états quantiques composants.
Une superposition d'états quantiques formant un état quantique unique est analogue
à la superposition des sons émis par plusieurs cordes de piano vibrant
simultanément pour produire un son unique. Lorsqu'une mesure d'une superposition
produit une décohérence donnant un résultat unique, les probabilités des divers
résultats possibles dépendent des proportions relatives avant décohérence des
divers états quantiques superposés, proportions prédites par la Mécanique quantique
sous forme de probabilités.
Il n'y a pas d'équivalent macroscopique d'un état global superposition de plusieurs
états cohérents, car sa durée serait trop faible pour être observée. La superposition
d'états est un exemple de plus de réalité qui défie notre intuition, et nous devons
étendre la définition du déterminisme pour la prendre en compte.
3.5.7.2
Superposition de trajectoires
Nous avons déjà vu dans l'expérience précédente des « fentes de Young », réalisée
avec des atomes au lieu de photons [117], un exemple de parcours de deux
trajectoires en même temps : un atome parcourt en fait simultanément deux chemins
dans l'appareil, entre source et détection, passant par les deux fentes à la fois
comme le ferait une onde lumineuse. Comme il est impossible d'observer la figure
d'interférence et en même temps de savoir par quelle fente un atome donné est
passé (en vertu du principe de complémentarité), il faut considérer que dans cette
expérience l'atome s'est comporté comme une onde de probabilité passant par les
deux fentes à la fois, pas comme un corpuscule matériel obligé de passer par une
seule des fentes.
3.5.7.3
Conclusions sur la superposition d'états ou de trajectoires
Il faut nous faire violence pour accepter la vérité physique représentée par la
superposition d'états ou de trajectoires, notre intuition marquée par le déterminisme
traditionnel ne parvenant pas à imaginer comment un atome peut être en plusieurs
endroits à la fois ou parcourir deux trajectoires différentes en même temps, surtout si
elles ont des points distants de plusieurs milliers de diamètres atomiques !
(La difficulté pour la compréhension intuitive humaine vient de la représentation
d'un corpuscule en mouvement par des ondes de probabilité, qui passent par
deux fentes à la fois aussi facilement que les ondes électromagnétiques. Elle
vient aussi de notre difficulté d'accepter qu'une cause soit suivie de multiples
conséquences (évolutions) simultanées, superposées en combinaison linéaire
d'états, et qui restent distinctes jusqu'à la décohérence.)
Cette pluralité expérimentale est d'autant plus difficile à accepter que toute mise en
évidence expérimentale des chemins parcourus par un atome n'en trouve qu'un seul,
du fait de la décohérence qui se produit automatiquement lors de cette mise en
évidence au passage de l'échelle microscopique à l'échelle macroscopique. Il a fallu
aux chercheurs du laboratoire LKB de l'Ecole Normale Supérieure beaucoup de
génie pour réaliser l'expérience célèbre qui prouve la superposition et observe la
décohérence au bout d'un certain temps [1] [10].
207
La décohérence est d'autant plus rapide que :

le système observé est plus grand, donc soumis à davantage d'interactions (par
exemple gravitationnelles ou de friction) avec le milieu environnant ;

la distance énergétique entre les états cohérents est plus grande, produisant une
instabilité plus grande de la superposition d'états.
En pratique, la durée de cohérence (durée d'une superposition avant décohérence)
peut aller d'une fraction de seconde si courte qu'elle n'est pas mesurable à un certain
nombre de minutes, voire plus.
Nous sommes donc conduits à compléter le déterminisme par la possibilité
d'existence d'un état global d'un système qui combine (superpose) un certain nombre
d'états de base avant qu'une mesure ou la nature en choisisse un au hasard au bout
d'un certain temps, en général très bref.
L'état unique choisi après décohérence a donc plusieurs prédécesseurs ayant
coexisté en superposition, une situation considérée comme impossible par le
déterminisme et la physique traditionnels !
Après une décohérence, nous devons considérer la superposition d'états qui l'a
précédée comme un état global unique, combinaison linéaire [29] d'états
élémentaires superposés dont l'un est devenu permanent. En utilisant la description
par fonctions d'ondes, en superposition d'états la fonction d'onde  d'un système est
une combinaison linéaire de vecteurs propres [278] i, alors qu'après décohérence
la fonction d'onde est réduite à celui de ses vecteurs propres qui a été choisi au
hasard, k. La transformation d'un système par décohérence produit donc une
« réduction de sa fonction d'onde ».
En somme, l'évolution d'un système à l'échelle atomique est celle d'une
superposition d'états régie par l'équation de Schrödinger tant qu'on ne mesure ou
n'observe rien, puis par sa fonction d'onde réduite à un vecteur d'état choisi au
hasard, après : toute mesure détruit la superposition et change l'état du système
d'une manière qui n'est prévisible qu'en probabilité. Dérangeant, non ?
Irréversibilité
La décohérence est un processus irréversible : après le choix au hasard d'un état
final unique k par décohérence, on ne peut revenir en arrière et reconstituer l'état
superposé . On ne peut même pas "passer le film des événements à l'envers"
comme dans un phénomène à symétrie temporelle, car il n'y a pas d'équation de
décohérence où on pourrait changer la variable t en -t.
Unicité philosophique de la chaîne de causalité en remontant le temps
Plus généralement, il faut remplacer le postulat d'unicité de la chaîne de causalité du
déterminisme philosophique [200] dans le sens qui remonte le temps par la certitude
que toute situation a une cause au moins. En général on ne peut pas reconstituer le
passé en pensée en remontant une chaîne de prédécesseurs uniques d'un état.
Exemple : si après une addition nous avons comme résultat le nombre 8, avant
l'addition la paire de nombres ajoutés pouvait être (1+7), ou (2+6), etc.
208
A un état final d'un système peuvent correspondre plusieurs prédécesseurs.
L'état précédent peut ou non avoir été une superposition d'états cohérents.
3.5.7.4
Déterminisme arborescent à univers parallèles de Hugh Everett III
Pour éliminer l'embarrassante question sur l'absence de mécanisme physique
expliquant et décrivant la décohérence et le résultat aléatoire que produit sa
réduction, le physicien américain Hugh Everett a posé en 1957 un postulat radical :
La fonction d'onde est irréductible.
Pour lui il n'y a jamais de décohérence, puisque l'évolution d'un système est toujours
déterministe, toujours unitaire et régie par la même équation de Schrödinger, qu'il y
ait une mesure ou non. [323]
Everett a proposé une fonction d'onde universelle, représentant un système à la fois
aux échelles atomique et macroscopique. Cette fonction d'onde intègre toujours des
variables de mesure macroscopique d'une expérience en plus des variables
microscopiques. Un résultat macroscopique donné est toujours possible dès le début
d'une évolution décrite par l'équation de Schrödinger, avec une probabilité connue.
Lorsqu'un observateur en constate un en particulier, c'est qu'il a évolué avec le reste
du système de la façon qui le fait constater la valeur qu'il lui trouve.
Pour Everett, donc, il faut considérer l'ensemble du système expérimental - y compris
un éventuel appareil de mesure et l'homme qui observe le résultat - comme un tout,
un univers décrit par une fonction d'onde universelle. La mesure fait passer sans
décohérence de l'état superposé de ce système à l'état macroscopique, par une
évolution régie par l'équation de Schrödinger du départ.
Tout se passe comme si l'expérience transformait l'Univers unique du début en une
superposition comprenant autant d'univers qu'il y a de résultats possibles, chacun
avec son expérience et son expérimentateur. En vertu de l'équation de Schrödinger
tout ce qui peut arriver arrive !
Lors de la mesure d'un système à l'état superposé, chaque expérimentateur (toujours
dans un état unique) suit son système dans une branche de l'arborescence des
possibilités d'évolution superposées créées par l'expérience à partir du nœud de
l'état avant mesure. Pour lui, le déterminisme de l'équation de Schrödinger a fait
évoluer l'univers tout entier – appareil de mesure et lui-même inclus – vers l'état
correspondant à la valeur propre qu'il mesure. Les autres univers (système et
observateur) existent désormais en même temps, en superposition. Mais ils sont
invisibles pour lui, qui ne peut voir que l'univers dans lequel il vit et fait son
expérience depuis le début : chaque observateur croit toujours être unique, la même
équation de Schrödinger n'ayant jamais cessé de s'appliquer pour décrire l'évolution
du système ; il n'y a plus de décohérence à expliquer, plus de hasard.
209
Bien entendu, ce déterminisme arborescent régit toutes les transformations dont les
lois ont des solutions multiples, avec ou sans observateur ou dispositif de mesure. Il
contredit l'interprétation classique de la physique quantique (dite « interprétation de
Copenhague » parce qu'elle était proposée par le Danois Niels Bohr), interprétation
selon laquelle les solutions et prédictions de la Mécanique quantique ne s'appliquent
pas au domaine macroscopique. Mathématiquement irréfutable, l'élégante
interprétation d'Everett est acceptée de nos jours par certains physiciens. Elle est
ignorée par les autres, qui ne l'aiment pas bien qu'ils ne puissent prouver qu'elle est
fausse ; ils se contentent de dire qu'une mesure réduit la fonction d'onde du système
par décohérence, et que le croire ne les empêche pas de faire des calculs justes.
Avec cette interprétation :

La célèbre expérience de pensée du chat de Schrödinger crée simultanément
deux chats, l'un mort et l'autre vivant ; et selon l'Univers où l'observateur a
basculé, il voit le chat mort ou vivant sans avoir pu prédire le résultat.

L'expérience du comportement non séparable de deux photons intriqués ne
prouve plus la non-séparabilité : quel que soit l'Univers où on a basculé lors de
l'émission simultanée des deux photons dont les états quantiques sont
superposés, la mesure donne toujours un résultat cohérent, sans qu'il soit
nécessaire d'envisager une transmission d'information ou une non-séparabilité.

Le caractère surprenant de la valeur de tant de constantes de l'Univers, qui
semblent choisies juste comme il faut pour que l'homme ait pu naître, n'a plus
rien de surprenant, le choix faisant partie des choix possibles. L'étonnement des
spiritualistes partisans du principe anthropique n'a donc plus de raison d'être.
L'objection de la dualité onde-particule invisible à l'échelle macroscopique
L'équation de Schrödinger prévoit que la superposition des résultats d'une évolution
a tantôt un aspect particule, tantôt un aspect onde. L'aspect onde produit des
interférences ; il permet par exemple à une particule de passer par deux fentes à la
fois et à un objet d'être en plusieurs endroits à la fois.
De son côté, l'équation universelle d'évolution de Hugh Everett, qui s'applique aux
objets macroscopiques comme aux particules, prévoit qu'un objet macroscopique
peut parfois avoir un comportement ondulatoire, existant par exemple en deux
endroits à la fois ou sujet à des interférences. Or on a eu beau faire soigneusement
des expériences, on n'a jamais pu mettre en évidence un tel comportement ; voici
pourquoi.
Représentation de la fonction d'onde généralisée par une matrice de densité
On peut représenter une fonction d'onde généralisée par une matrice de densité ([68]
page 436), tableau qui regroupe les informations de la fonction d'onde et celles d'une
connaissance de ses résultats mesurés (ce que l'on sait, en probabilité). Cette
matrice est régie par une équation fondamentale de la Mécanique quantique,
équivalente à celle de Schrödinger mais formulée par Born, Heisenberg et Jordan.
Son élément ligne i colonne j appelé ρij, se calcule à partir du nombre complexe i
*
*
associé à la valeur propre i de la fonction d'onde  par ρij = ij où j est le
conjugué de j. Ainsi, par exemple :
210

Les deux valeurs propres équiprobables de la fonction d'onde auront des
probabilités de 0.5 situées sur la diagonale principale d'une matrice 2x2
0.5

0.5
L'incertitude sur la connaissance de ces valeurs propres est représentée par les
deux nombres de l'autre diagonale, par exemple deux fois 0 s'il n'y a pas
d'incertitude (connaissance certaine). Il y a eu alors décohérence et une des
valeurs propres est mesurée avec certitude, mais nous ne savons pas laquelle.
0.5
0
0
0.5
Si ces deux dernières probabilités sont aussi égales à 0.5, le système est dans
un état de superposition ; nous ne savons pas laquelle des valeurs propres
serait choisie lors d'une décohérence, et quelle serait sa valeur scalaire.
0.5
0.5
0.5
0.5
Exemple : mesure utilisant le spin d'un électron polarisé
Si par exemple le résultat macroscopique de l'expérience est donné par la mesure du
spin [22] d'un électron parfaitement polarisé, celle-ci tiendra compte de la
décohérence éventuelle et nous pourrions savoir qu'il y a ou non superposition. Mais
si l'électron est non-polarisé ou s'il y a trop d'électrons pour une mesure de
polarisation, le spin est dans un état indéterminé et nous ne pouvons conclure sur la
superposition (valeurs propres multiples ou valeur propre isolée).
C'est ce genre de difficulté qui gêne dans la mise en évidence d'un éventuel état
superposé d'un objet macroscopique que nous voyons : nous en recevons trop de
photons à la fois, des milliards de milliards donnant une image unique qui nous paraît
nette : les autres images sont atténuées par la décohérence avant que nous
puissions les voir. Et si nous mesurons la polarisation d'un électron que nous avons
omis de polariser dans l'expérience, celle-ci ne pourra évidemment pas conclure.
Il y a même une difficulté supplémentaire. Une mesure effectuée à l'aide d'une
particule (comme un photon ou un électron) ne pouvant être plus précise que la
demi-largeur de son paquet d'ondes, il restera toujours une incertitude sur la
possibilité de distinguer entre états superposés et non-superposés, en même temps
qu'une probabilité non-nulle de trouver chacune des valeurs propres, comme dans
l'effet tunnel.
L'interprétation par univers parallèles de Hugh Everett est donc utilisable.
Voir aussi [324].
211
Pourquoi notre cerveau ne nous permet de voir des objets qu'après décohérence
Sources : [136] Tegmark et [325]
Lorsque notre œil reçoit des images provenant d'un objet macroscopique, le nerf
optique et divers neurones transmettent ces images au subconscient du cerveau.
Celui-ci les analyse et ne les passe à la conscience que s'il les juge suffisamment
prometteuses ou menaçantes, et nous ne les percevons que dans ce cas-là et après
ce traitement cérébral.
Ce processus comprend un certain nombre de transmissions d'informations entre
neurones, en passant par leurs axones. Comme le nerf optique, un neurone soumet
une éventuelle superposition quantique à une décohérence, car il ne peut
transmettre à travers un axone qu'une seule information à la fois ; en outre, cette
décohérence se produit avant l'évaluation par la barrière de conscience et infiniment
plus vite qu'elle [1]. La transmission d'une région du cerveau à une autre par
plusieurs neurones en parallèle ne change rien à la décohérence, qui survient
toujours avant l'évaluation par la barrière de conscience.
Conclusion : lorsque nous sommes conscients de voir un objet nous n'en voyons
qu'une seule image, même si l'objet est à l'état de superposition.
3.5.8
3.5.8.1
3e extension du déterminisme : quantification et principe d'incertitude
Quantification des niveaux d'énergie et des échanges d'énergie
L'étude
des
spectres
d'émission
et
d'absorption
de
rayonnements
électromagnétiques des divers types d'atomes a mis en évidence un fait inexplicable
avec les lois à variation continue d'énergie de la physique traditionnelle : ces
spectres sont constitués de raies fines. L'interprétation de cette finesse est la
suivante : un atome d'un type donné n'émet ou n'absorbe que des photons de
certaines fréquences - donc certaines énergies - bien déterminées. L'énergie
potentielle d'un atome est donc quantifiée : elle ne peut prendre que certaines
valeurs discrètes. Chaque absorption ou émission d'un photon [117] de fréquence 
par un atome fait varier l'énergie de celui-ci de la valeur exacte h, où h est une
constante universelle appelée "constante de Planck" ou "quantum d'action" et valant
h = 6.6261 .10-34 joule.seconde.
3.5.8.2
Les trois constantes les plus fondamentales de l'Univers
On mesure une grandeur en la comparant à une unité. Il y a des constantes de
l'Univers qui constituent des unités fondamentales, qu'il est judicieux de poser à priori
pour en faire dépendre d'autres unités. En voici trois :

La constante de Planck, h = 6.6261 .10-34 joule.seconde, dont on utilise aussi
une valeur dérivée appelée ä ("h barre") : ä = h/2 = 1.05 .10-34 joule.seconde.

La vitesse de la lumière dans le vide, c = 299 792 458 m/s (un peu moins de
300 000 km/s). C'est là une valeur exacte, une unité internationale.

La constante universelle de gravitation G = 6.67.10-11 Nm2/kg2.
Il y en a plusieurs dizaines d'autres, comme la charge électrique de l'électron
e = 1.602 .10-19 coulomb. Voir aussi Distance, temps, densité et masse de Planck.
212
3.5.8.3
Position et vitesse d'une particule
Nous avons vu ci-dessus à propos de la trajectoire d'un corpuscule qu'en Mécanique
quantique la position et la vitesse d'un corpuscule à un instant donné doivent être
interprétées avec une certaine probabilité dans un volume donné autour d'une
position de probabilité maximum. De ce fait :
Les descriptions des états initial et final ont une précision limitée : elles sont
entachées d'incertitude, les positions et les vitesses sont approximatives.
3.5.8.4
Paquet d'ondes et étalement dans le temps
3.5.8.4.1
Description d'un paquet d'ondes de probabilité
Une autre caractéristique des solutions de l'équation de Schrödinger est encore plus
déroutante : l'étalement dans le temps des paquets d'ondes de probabilité. La
position d'une particule matérielle qui se déplace conformément à l'équation de
Schrödinger est décrite par un paquet d'ondes, superposition d'un ensemble d'ondes
(d'amplitude de) probabilité - souvent planes et monochromatiques - de fréquences
et phases différentes, dont l'amplitude s'ajoute en donnant une probabilité maximum
de présence de la particule au centre du paquet, et une probabilité s'annulant
rapidement dès que l'on s'éloigne du centre.
C'est ainsi qu'un paquet d'ondes de probabilité à une dimension se déplaçant dans la
direction des x croissants de l'axe Ox a une équation de la forme :
 ( x, t ) 
1
2



f (k )e i ( kx t ) dk
où :

(x, t) est un nombre complexe donnant l'amplitude et la phase d'une onde de
probabilité de la particule au voisinage de la position x à l'instant t ;

à chaque valeur de k entre - et + correspond une onde du paquet ;

 est la pulsation (fréquence multipliée par 2), reliée à k, à la masse m de la
particule et à la constante ä = h/2 par la relation :
k 2

2m

t est l'instant ;

f(k) est la fonction d'amplitude qui détermine la distribution des amplitudes des
diverses ondes composantes du paquet en fonction de la variable k ;

le rapport /k est appelé v, vitesse de phase de l'onde correspondant à k, égale
à c dans le vide mais égale à c/n(k) dans un milieu dispersif dont l'indice vaut
n(k).
L'amplitude du paquet d'ondes à un instant t donné est représentée par le graphique
ci-dessous, qui montre que la probabilité n'est significative que dans un petit
intervalle Δx et diminue puis s'annule rapidement en dehors.
213
Amplitude du paquet d'ondes à l'instant t d'une particule se déplaçant à la vitesse v
En somme, un paquet d'ondes accompagne une particule qui se déplace, et c'est
parce que ce paquet d'ondes a une largeur Δx non nulle que la position de la
particule à un instant donné ne peut être définie avec une précision meilleure qu'une
demi-largeur de paquet autour de son centre, et que la particule apparaîtrait floue si
on pouvait la voir.
3.5.8.4.2
Etalement du paquet d'ondes de position d'une particule
La vitesse de déplacement de la particule et de son paquet d'ondes, v, vaut 2 fois la
vitesse de phase v de l'onde dont le maximum est au centre du paquet. Le temps
passant, les ondes de probabilité se rattrapent et se chevauchent, et le paquet
d'ondes s'étale tout en se déplaçant. Le graphique ci-dessous illustre cet étalement,
en montrant que t secondes après l'instant initial t=0 sa densité de probabilité [28]
maximum |(x)|2 a diminué et sa largeur Δx a augmenté.
Densité de probabilité maximum |(x)|2 aux instants 0 et t d'un paquet d'ondes
214
La conséquence de cet étalement est qu'après un calcul de position qui a donné un
résultat x à l'instant t (à l'incertitude Δx près), l'incertitude sur la position de la
particule en déplacement augmente. En quelque sorte, l'image de la particule devient
rapidement encore plus floue.
En Mécanique quantique la précision de position en mouvement après une
estimation se dégrade rapidement, contrairement à la physique classique.
Mais (surprise !) cette dégradation n'existe pas pour la quantité de mouvement Δp
[20] d'une particule : l'étalement du paquet d'ondes de quantité de mouvement à
l'instant d'une évaluation reste le même après cette évaluation :
Δp(t=0) = Δp(t>0)
Cela se comprend facilement si l'on se souvient qu'une particule libre (c'est-à-dire qui
n'est pas accélérée par un changement de potentiel) a une quantité de mouvement
constante.
3.5.8.4.3
Cas d'une onde de photon
Nous venons de voir l'étalement du paquet d'ondes accompagnant une particule de
masse non nulle, c'est-à-dire d'un corpuscule. Pour un photon, de masse toujours
nulle [117], les choses sont un peu différentes. L'onde électromagnétique du photon
dure le temps  que met un atome (ou une molécule) à l'émettre en passant d'un
niveau d'énergie à un niveau inférieur. La vitesse de cette onde et du photon est la
vitesse de la lumière, c. Si on connaît l'émetteur (atome ou molécule), on connaît ses
divers niveaux d'énergie, la fréquence  du photon, et la longueur de l'onde émise
(celle de sa suite d'alternances) c. L'incertitude sur la fréquence  du photon et sa
longueur d'onde  = c/ proviennent des incertitudes sur les différences entre deux
niveaux d'énergie de l'émetteur. L'incertitude Δx sur la position du photon est égale à
sa longueur d'onde et l'incertitude sur son impulsion s'en déduit en appliquant le
principe d'incertitude de Heisenberg (voir ci-dessous). Il n'y a pas d'étalement dans le
temps.
Si on fait passer de la lumière monochromatique à travers une fente qu'on ouvre
pendant un court instant puis qu'on referme, il y a une incertitude sur la durée
d'ouverture de la fente, donc une incertitude sur la longueur du train d'ondes
lumineuses qui l'a franchie (voir ci-dessous).
3.5.8.5
Incertitudes sur les déterminations simultanées de 2 variables
La Mécanique quantique impose une limite inattendue sur les précisions de la
position et de l'impulsion [20] d'un système en évolution comme le mouvement d'une
particule lorsqu'on les mesure simultanément : le produit des incertitudes
(exactement : des indéterminations) sur la position Δx et l'impulsion Δp doit être
toujours supérieur à un minimum de l'ordre de ½ä (prononcer "h barre"), où

h
2
215
h est une constante universelle appelée "constante de Planck" ou "quantum d'action"
et valant h = 6.6261 .10-34 joule.seconde ; donc ä = 1.05 .10-34 joule.seconde et
½ä = 0.527 .10-34 joule.seconde.
L'inégalité traduisant ce produit minimum s'écrit :
Δx . Δp  ½ä
(a)
La contrainte décrite par l'inégalité (a) s'appelle « principe d'incertitude de
Heisenberg ». Voici sa signification : plus le volume considéré autour d'une position
de particule en mouvement est petit (plus cette position est déterminée avec
précision) et plus l'incertitude sur l'impulsion (ou la quantité de mouvement pour un
corpuscule pesant, donc sa vitesse) en ce point est grande, et réciproquement.

Lorsque la particule a une masse, l'incertitude sur l'impulsion est en fait une
incertitude sur sa quantité de mouvement [20], c'est-à-dire sur sa vitesse si sa
masse est constante comme la Mécanique quantique le suppose.
Exemple 1 : un atome de fer ayant un rayon de 1.26 angström (1Å = 10-10 m),
supposons que l'imprécision sur la position d'un électron soit du même ordre,
soit Δx = 1Å. L'incertitude sur la quantité de mouvement de l'électron est alors
½ä/Δx = 0.53 .10-24 kg.m/s ; et puisque la masse au repos de l'électron est
0.9 .10-30kg, l'incertitude sur sa vitesse est 0.6 106 m/s, c'est-à-dire 600 km/s !
Par contre, si l'on accepte une incertitude de 1mm sur la position, l'incertitude sur
la vitesse tombe à 6 cm/s.
Exemple 2 : les incertitudes sur la position et l'impulsion d'un objet de taille
macroscopique sont insignifiantes. Un grain de poussière de diamètre
1 m = 10-6 m, pesant environ m = 10-15 kg et se déplaçant à la vitesse de
1 mm/s, dont on mesure la position avec une précision extrême de 0.01 m a
une incertitude sur son impulsion de Δp = mΔv = 0.5 .10-26 kg.m/s, c'est-à-dire
une incertitude sur sa vitesse de 0.5 .10-8 mm/s : La précision sur la vitesse est
meilleure qu'un cent-millionième de mm/s.

Lorsque la particule mesurée n'a pas de masse, comme c'est le cas pour un
photon [117], il n'y a pas d'incertitude sur sa vitesse - toujours égale à c - mais il
y a incertitude sur sa position du fait de sa longueur d'onde. Pour augmenter la
précision d'une mesure de position utilisant un rayonnement électromagnétique il
faut donc diminuer sa longueur d'onde, c'est-à-dire accroître son énergie.

L'incertitude sur deux mesures simultanées doit être comprise axe par axe. C'est
ainsi que la composante selon l'axe Oz de l'impulsion, p z, peut être mesurée en
même temps que la composante selon l'axe Ox de la position, x, sans que la
limitation Δx . Δpz  ½ä intervienne.

Ne pas confondre l'incertitude due au principe de Heisenberg, qui porte sur des
estimations simultanées de la position et de la vitesse, avec la dégradation de la
précision de positionnement d'une particule en mouvement due à l'étalement de
son paquet d'ondes avec le temps qui passe.
216
Le principe d'incertitude exprime une forme d'incompatibilité entre précisions des
déterminations simultanées de la position et de l'impulsion, incompatibilité qui existe
aussi pour un autre couple de variables, l'énergie ΔE et la durée Δt :
ΔE . Δt  ½ä
(b)
L'inégalité (b) peut être interprétée comme une instabilité de l'énergie, une nonreproductibilité d'expériences mesurant une énergie répétées trop peu de temps
l'une après l'autre : si on fait l'expérience "2" longtemps après l'expérience "1", Δt est
grand et ΔE peut être très petit, la reproductibilité peut être excellente ; mais plus tôt
on réalise l'expérience "2" après l'expérience "1", plus ΔE pourra être grand, ce qui
dégradera la reproductibilité. Le manque de reproductibilité est dû à une instabilité
naturelle, des fluctuations traduisant un refus de précision et de stabilité de la nature.
L'inégalité (b) peut aussi être interprétée comme l'impossibilité de mesurer avec
précision l'énergie d'un phénomène extrêmement bref, ou l'impossibilité de dater
avec précision l'échange d'une très faible quantité d'énergie. Exemple : lorsqu'un
atome subit une perte d'énergie ΔE avec émission d'un photon, la durée de cette
transition et de l'émission du photon ne peut être déterminée avec une imprécision
meilleure que ä/2ΔE.
Enfin, le principe d'incertitude joue aussi pour la position angulaire α et le moment
cinétique L en imposant que Δα . ΔL  ½ä.
3.5.8.6
Remarques sur l'incertitude et l'imprécision
En toute rigueur (pour un mathématicien) le principe d'incertitude de Heisenberg
décrit une relation entre les largeurs des spectres de valeurs propres [278] de deux
opérateurs qui ne commutent pas (opérateurs de position et d'impulsion, d'énergie et
de durée, etc.), largeurs qui ne sont pas à proprement parler des incertitudes.
Il y a aussi une incertitude sur la position d'un corpuscule conséquence de la largeur
du paquet d'ondes accompagnant le déplacement d'une masse non nulle. Il y a
également une incertitude due au fait qu'une particule n'est pas ponctuelle et n'a pas
de dimension précise, bien qu'elle soit tout à fait réelle et porteuse d'énergie, tant pis
si ce caractère flou défie notre intuition !
C'est ainsi que dans l'expérience des fentes de Young réalisée avec des
atomes, un même atome sort des deux fentes avec deux distributions de
probabilité de présence, chacune munie de points de probabilité maximum, et
les probabilités de ces distributions vont s'ajouter en amplitude et en phase sur
l'écran en produisant des franges d'interférences. L'atome aura bien emprunté
deux chemins distincts en même temps, avec deux ondes de probabilité se
propageant chacune avec son amplitude et sa phase, d'où les interférences lors
de leur rencontre. Cette existence de deux parcours simultanés est une forme de
superposition de résultats, nous l'avons déjà signalé.
Mais l'habitude d'appeler « incertitude » une largeur de paquet d'ondes est devenue
une véritable tradition, qui fait oublier à certains que toutes les valeurs d'amplitude
d'un intervalle d'incertitude n'ont pas la même probabilité.
217
Quelle que soit l'interprétation, la conséquence de ces deux types d'incertitude (la
largeur du paquet d'ondes et le principe d'incertitude de Heisenberg) sur le
déterminisme demeure : la précision de nombreuses déterminations est limitée,
inutile d'espérer des progrès techniques ! Mais attention : précision limitée ne signifie
pas inexistence de la particule, ou indéterminisme au sens « conséquence
imprévisible d'une cause ».
Ce n'est pas parce qu'un voltmètre a une précision de 0.5 % que la différence de
potentiel réelle qu'il mesure n'existe pas, ou qu'elle est une conséquence non
déterministe des paramètres du circuit : elle existe avec une valeur probabiliste,
de probabilité maximale au milieu d'un intervalle dont la largeur est 0.5 % de la
tension maximale mesurable ; nous aurions préféré que cette valeur soit précise
avec une infinité de décimales, mais la réalité se moque de nos préférences.
Voir aussi plus bas : "Exemple : portée des forces et masse des particules".
L'imprécision :

Limite la précision d'une mesure, dont la valeur réelle existe mais est définie
dans un intervalle au lieu d'être exacte. En langage statistique, l'intervalle est de
type « intervalle de confiance » et signifie, par exemple, que la valeur réelle a
une probabilité de 95 % d'être entre ses bornes, et une probabilité faible mais
non nulle d'être à l'extérieur aussi loin que l'on voudra.

Limite notre aptitude à prévoir le résultat exact d'une mesure, donc la
conséquence précise d'une évolution. Et après une mesure de position d'une
particule de masse non nulle en mouvement, (mesure qui a la précision qu'elle
peut), la valeur prédite « s'étale » jusqu'à la prochaine mesure, si on en fait une.
Cette imprécision est un phénomène naturel incontournable, qui nous oblige donc à
revoir notre conception du déterminisme : une évolution ne peut toujours être prévue
avec une précision infinie. Ce phénomène est dû au rapport étroit qui existe, à
l'échelle atomique, entre un corpuscule en mouvement et le paquet d'ondes qui
l'accompagne.
Nous verrons aussi, plus bas, que pour des valeurs extrêmement petites de la
longueur ou du temps (longueur et temps de Planck) nos lois physiques ne
s'appliquent plus, l'indétermination étant alors totale.
3.5.8.6.1
Origine physique de l'incertitude de Heisenberg lors d'une mesure
Dans certaines circonstances de physique atomique il y a des variables qui sont
instables : leur valeur peut changer d'une mesure à l'autre sans cause autre que le
temps qui passe ; dans ces cas-là, le principe de causalité ne s'applique pas.
Exemple : l'énergie potentielle en un point de l'espace d'un atome ou d'une
galaxie peut fluctuer autour d'une valeur moyenne par « emprunts de courte
durée » d'énergie à l'espace environnant.
A l'échelle atomique, l'incertitude de Heisenberg interdisant de mesurer avec
précision la valeur d'une variable lorsqu'on mesure précisément celle d'une autre, et
que les deux variables font partie d'un couple « incompatible » (couple dont les
opérateurs associés ne commutent pas), est due à la brutalité d'une mesure,
opération physique irréversible qui fait passer de l'échelle atomique à l'échelle
218
macroscopique. Cette brutalité entraîne une perte d'information sur l'état quantique
du système atomique, perte qui est à l'origine de l'incertitude.
Exemple : une tentative de mesurer avec précision la vitesse d'un électron en
mouvement à l'aide de photons suffisamment énergétiques pour que cette
mesure soit précise déplace l'électron de manière assez brutale et imprévisible
pour perturber gravement une mesure de sa position. Des détails sur ce
phénomène sont fournis par l'analyse de l'effet Compton.
Mais l'incertitude énergétique due aux fluctuations quantiques n'est pas mesurable,
on ne la connaît que par calcul et les particules qu'elle crée pendant un court instant
sont considérées comme virtuelles.
3.5.8.7
Incertitude contextuelle
L'incertitude de Heisenberg concerne des couples d'observables A et B mesurées
simultanément, observables « incompatibles » en ce sens qu'elles ne commutent pas
(l'observable produit AB n'est pas égal à l'observable produit BA, ce qu'on écrit
[A,B]0). Mais voici une autre condition d'incompatibilité, dite « contextuelle »,
découverte par Simon Kochen et Ernst Specker en 1967 [43].
Considérons trois grandeurs, A, B et C, telles que les observables de B et C
commutent avec celle de A ([A,B]=0 et [A,C]=0) mais pas entre elles ([B,C]0).
D'après le principe d'incertitude, une mesure de A étant compatible avec une mesure
simultanée de B ou de C, on s'attend à ce que la valeur propre [278] trouvée pour A
soit la même en présence de B ou en présence de C. Or le théorème de KochenSpecker montre que ce n'est pas le cas : à chaque mesure, la valeur propre trouvée
pour A dépend de la totalité du système, et notamment des autres grandeurs
mesurées : on dit qu'une mesure de physique quantique est toujours contextuelle.
A la différence de l'incertitude de Heisenberg, il ne s'agit pas ici d'une
indétermination, d'une précision limitée. Il s'agit du choix d'une valeur propre dans
l'ensemble des valeurs propres possibles, choix qui peut dépendre d'autres variables
du système, variables de Mécanique quantique mais jamais variables « cachées ».
Le caractère contextuel de la Mécanique quantique est un argument supplémentaire
contre l'existence de valeurs de variables indépendamment de toute mesure, comme
en physique macroscopique. On ne peut donc pas, en physique quantique, affirmer
qu'une variable a une valeur indépendamment de tout système de mesure. Malgré
tout, il existe des propriétés de physique quantique indépendantes des mesures,
comme les formes, dimensions et niveaux d'énergie des orbitales électroniques d'un
atome donné.
3.5.8.8
Incertitude due à l'effet Compton
Une autre conséquence des ondes de matière découvertes par Louis de Broglie est
l'effet Compton, qui en fut la première preuve expérimentale en 1923. Un
rayonnement électromagnétique de haute énergie (rayon X ou gamma) interagit avec
la matière qu'il atteint de trois façons :

En provoquant la création d'une paire particule-antiparticule électron-positon ;
(on dit aussi positron au lieu de positon) ;

En extrayant des électrons d'atomes de la matière par effet photoélectrique ;
219

Par diffusion élastique des photons par des électrons libres ou à faible énergie
de liaison, diffusion appelée effet Compton.
Lorsqu'un photon incident de longueur d'onde  rencontre un électron, il produit
un photon diffusé de longueur d'onde ' et l'électron recule dans une direction
qui fait un angle  avec celle du photon incident. L'impulsion et l'énergie du
photon incident se trouvent partagées entre le photon diffusé et l'électron de
recul. En appelant me la masse de l'électron, la relation de l'effet Compton est :
  '
h
(1  cos  )
mec
où le terme h/mec est appelé longueur d'onde de Compton de l'électron.
La longueur d'onde de Compton d'une particule de masse m est celle pour
laquelle l'énergie des photons est égale à l'énergie au repos de la particule, mc2.
La relation de l'effet Compton montre que la position ou la dimension d'une particule
de masse m ne peuvent être définies à mieux que sa longueur d'onde de Compton
près. [134] Cette forme d'incertitude est négligeable en physique macroscopique.
3.5.8.9
Mesures, incertitude et objectivité
3.5.8.9.1
Toute mesure de physique quantique modifie la valeur mesurée
En physique quantique, toute expérience réalisée avec un appareil à l'échelle
macroscopique modifie le système microscopique qu'elle manipule ; elle détruit son
état initial, devenant de ce fait irréversible.
On ne peut pas, par exemple, mesurer ou simplement observer le passage d'un
photon sans le détruire ; la seule manière de le prendre en compte dans une
expérience est de lui faire céder son énergie, toute son énergie h  car elle est
quantifiée, c'est-à-dire indivisible [117].
On peut quand même absorber le photon en excitant un atome puis le recréer
lorsque celui-ci se désexcite ; mais il faut alors prendre en compte le temps
nécessaire à ce processus, qui peut introduire une incertitude sur l'état du
photon [21].
On peut également, en utilisant l'énergie d'un champ auxiliaire, faire que la
rencontre d'un photon et d'un atome provoque le changement de niveau
énergétique de celui-ci sans absorption du photon [174].
En physique quantique on ne peut même pas copier un état quantique tout en
laissant l'état d'origine inchangé, comme on copie un fichier en informatique ou une
page dans un photocopieur : voir ci-dessous.
3.5.8.9.2
Mesure souhaitée et mesure effectuée : exemple
Soit à déterminer expérimentalement la direction d'un mouvement dans un plan,
détermination qui exige de repérer cette direction par les deux angles qu'elle fait
avec deux axes orthogonaux constituant notre repère. Supposons, pour fixer les
idées, qu'il s'agit de déterminer le vecteur unitaire up qui décrit la direction de
220
polarisation d'une onde lumineuse plane monochromatique, c'est-à-dire de connaître
les composantes de ce vecteur par rapport aux axes du repère Ox et Oy.
Pour déterminer la direction du vecteur up, nous disposons d'un analyseur de
polarisation, appareil qui a deux directions privilégiées dont nous appellerons les
vecteurs de longueur 1 ux et uy. Cet analyseur transmet les polarisations parallèles à
ux et absorbe les polarisations parallèles à uy. Derrière l'analyseur il y a une cellule
photoélectrique qui nous informe sur les photons qui l'ont franchi. (Rappel : ou un
photon franchit l'analyseur, ou il est absorbé, il n'y a pas de photon partiellement
transmis, nous venons de le voir.)
Nous supposerons que tous les photons à analyser ont exactement la même
direction de polarisation up, par exemple parce que nous leur avons fait franchir un
polariseur (la réflexion sur un simple miroir incliné, par exemple) avant l'analyseur.
x
ux
up

direction de propagation
uy
y
Si nous envoyons les photons polarisés un par un vers l'analyseur, certains photons
le traverseront et d'autres seront absorbés. A moins que tous les photons soient
transmis (ce qui prouverait que up = ux), ou que tous soient absorbés (ce qui
prouverait que up = uy), l'expérience ne nous permet pas de savoir quels angles up
fait avec ux et uy. D'où une première conclusion :
Un appareil ne mesure que ce qu'il a été fait pour mesurer, pas ce que nous
souhaiterions mesurer.
Dans l'exemple précédent, l'analyseur mesure dans deux directions privilégiées et
elles seules. Les résultats donnés par l'appareil sont les valeurs propres [278] de son
observable, conformément au 3e postulat de la Mécanique quantique ; avec un
analyseur comme le précédent il y en a deux, associées à ses vecteurs propres ux et
uy. Plus précisément, l'analyseur ne mesure que dans la seule direction ux, pour
laquelle il ne fournit qu'une réponse de type binaire : OUI si un photon a été transmis,
NON dans le cas contraire ; dans la direction uy il ne fournit que des NON. Il est donc
221
impossible de déterminer la direction de polarisation d'un photon avec un analyseur
en s'y prenant comme nous venons de le faire.
La conclusion ci-dessus - impossibilité de mesurer la direction de polarisation d'un
photon - est vraie pour beaucoup d'autres grandeurs de physique quantique ;
exemple : la direction d'un vecteur spin [22]. On ne peut souvent déterminer qu'une
réponse de type binaire pour une valeur testée (comme la direction ux), et encore en
perturbant la grandeur mesurée. Et on ne peut pas connaître la valeur avant la
mesure, c'est-à-dire en l'absence de mesure : à part le cas particulier où l'état du
système correspond déjà à une valeur propre avant toute mesure, on ne peut pas
supposer qu'un résultat mesuré existe avant sa mesure ; c'est cette mesure qui crée
le résultat, en choisissant une valeur propre !
3.5.8.9.3
Copie d'un état quantique. Clonage par copie moléculaire
Des physiciens astucieux ont eu l'idée de copier un état quantique, en reproduisant
la particule ou le système d'origine à l'identique. Ils voulaient ainsi disposer d'une
copie, voire d'un grand nombre de copies identiques, pour pouvoir effectuer la
mesure à loisir. Mais cette idée est vouée à l'échec : à l'échelle atomique (celle de la
Mécanique quantique) toute copie implique une action sur l'objet copié, donc un
échange d'énergie, donc une perturbation, exactement comme une mesure. Et une
mesure donne une certitude sur l'état après elle, pas sur l'état avant, où elle n'avait
pas encore perturbé l'objet. En physique quantique on ne peut donc copier l'état
quantique d'un système ou une particule sans le (la) détruire ou en modifier l'énergie.
Impossibilité du clonage par copie de structure moléculaire et de la téléportation
Il résulte de ce qui précède que le clonage par copie exacte de structure moléculaire
envisagé dans [96] est impossible, donc que la « téléportation » imaginée par les
auteurs de science-fiction l'est aussi. En matière de clonage, la seule possibilité est
de type processus biologique, où la reproduction est sous contrôle du génome et des
mécanismes cellulaires, et encore, avec de grandes difficultés expérimentales et
beaucoup d'objections éthiques.
3.5.8.9.4
Mesure grâce à un grand nombre de particules
La loi d'optique expérimentale de Malus nous apprend que si on envoie à l'entrée de
l'analyseur ci-dessus un très grand nombre de photons par seconde représentant
une intensité lumineuse i, l'intensité transmise à la sortie sera icos², où  est l'angle
de up avec ux, c'est-à-dire qu'on aura up = uxcos + uysin (figure ci-dessus).
Ce comportement est dû à la nature d'une onde plane, qui se comporte comme
la résultante de deux vibrations dans des plans perpendiculaires. Une onde
plane d'amplitude A se décompose ainsi en deux ondes de même fréquence et
d'amplitudes respectives Acos et Asin. Et comme l'intensité d'un rayonnement
est proportionnelle au carré de son amplitude, les intensités mesurées dans
deux directions perpendiculaires seront proportionnelles respectivement à cos²
et sin². L'intensité étant proportionnelle au nombre de photons par seconde, la
probabilité que des photons traversent l'analyseur est proportionnelle à cos².
Le vecteur d'état up cherché est combinaison linéaire des vecteurs de base ux et uy
de l'analyseur. La probabilité qu'un des photons incidents franchisse l'analyseur est
222
donc proportionnelle au carré de cos, et la probabilité qu'il soit arrêté est
proportionnelle au carré de sin.
D'où les conclusions :

Avec une mesure unique (un photon) nous ne pouvons pas connaître la
polarisation avant la mesure, et après la mesure elle ne peut être que ux ou uy :
l'analyseur a perturbé la mesure sans pour autant nous fournir le résultat
souhaité.

Avec un très grand nombre de mesures (le rayonnement lumineux analysé
durant un certain temps), nous pouvons estimer les probabilités des divers
résultats de mesure, qui seront les carrés des composantes du vecteur cherché
up par rapport aux vecteurs de base ux et uy.
3.5.8.9.5

Conclusions sur la réalité objective et la réalité mesurable en physique
quantique
La réalité objective, c'est-à-dire indépendante de toute mesure et de tout
observateur, existe bien avant une mesure : par définition c'est son état, repéré
par un point ou un vecteur de l'espace des états ; elle peut être, par exemple,
une superposition d'états.
Le problème est que cette réalité nous est inaccessible, puisque sans mesure on
ne la connaît pas et avec une mesure on la perturbe en la mesurant !

La réalité ne nous est accessible qu'à travers une mesure, qui la perturbe tout en
donnant un résultat certain... mais choisi avec une certaine probabilité parmi les
valeurs propres de l'observable [278] mesurée par l'expérience. Et après une
mesure, la réalité d'avant n'existe plus. Il faut même, parfois, un grand nombre
de mesures pour estimer des probabilités pour les coefficients des vecteurs de
base.
A l'échelle atomique, l'inaccessibilité de la réalité objective autrement que par une
théorie mathématique (qui la prédit à partir de postulats, et qu'on estime juste du fait
de la précision de ses prédictions et de l'absence d'expériences qui la réfuteraient)
fait affirmer à des gens qui ont mal compris la physique quantique que cette réalité
objective n'existe pas, nous en verrons un exemple ci-dessous. Leur raisonnement
implicite est que la réalité physique est limitée à ce qui est perceptible. Pourtant ces
personnes, qui ne voient pas les électrons, croient à leur existence après avoir
touché les fils nus d'une prise de courant !
Et comme ils aggravent parfois leur cas en interprétant le principe d'incertitude de
Heisenberg comme une preuve de non-existence de la réalité - autre preuve de leur
ignorance - nous allons voir quelques détails complémentaires de ce principe.
3.5.8.9.6
Contraintes de non-indépendance de variables
La contrainte de non-indépendance de certaines variables par rapport à d'autres
formant avec elle un couple de variables dites complémentaires, comme
l'énergie ΔE et la durée Δt ci-dessus, est une particularité de la physique quantique
susceptible d'en perturber les mesures : nous avons vu que le produit d'incertitudes
223
ΔE.Δt des variables d'un tel couple, lorsqu'on les mesure simultanément, est au
moins égal à ½ä.
Exemple de non-indépendance : portée des forces et masse des particules
Voici un exemple d'impact de la non-indépendance de certaines variables
complémentaires formant un couple d'observables qui ne commutent pas,
conformément au principe d'incertitude de Heisenberg : l'existence d'une portée
maximale des forces résultant des interactions [18]. Comme nous le verrons un peu
plus loin, les interactions sont quantifiées, c'est-à-dire matérialisées par des
échanges de particules ayant un quantum d'énergie E, qui équivaut d'après la
Relativité à une certaine masse m : E = mc2.
Considérons donc une particule porteuse d'une force d'interaction et ayant une
masse m. Cette particule va être émise et se propagera pendant un temps court Δt
avant d'être absorbée et de céder son énergie ΔE = mc2 correspondant à sa masse
m. Or le principe d'incertitude démontre que l'énergie d'un phénomène qui a une
durée Δt ne peut être définie à mieux que ä/(2ΔE) = ä/(2mc2) près. Comme la
particule se déplacera à une vitesse nécessairement inférieure à celle de la lumière,
c, la distance maximale qu'elle pourra atteindre est d = cΔt = ä/(2mc) : c'est l'ordre de
grandeur de la portée de la force correspondant à la particule d'interaction.

Si la particule a une masse nulle, comme un photon, la distance d peut être
infinie : c'est pourquoi la portée de l'interaction électromagnétique est infinie.
La force de gravitation ayant aussi une portée infinie, si comme les trois autres
forces [18] elle est due à une particule (ce que nous savons depuis 2014 [313]),
celle-ci a nécessairement une masse nulle.

Si la particule a une masse non nulle, la portée de l'interaction correspondante
est de l'ordre de ä/(2mc). C'est ainsi que pour la particule appelée méson , dont
la masse est 0.24 .10-27 kg, la portée est de l'ordre de 0.7 .10-15 m, (environ 1
fermi), voisine du diamètre d'un noyau atomique, environ 100 000 fois plus petit
que celui de l'atome.
La notion de portée d'une force apparaît et s'explique en Mécanique quantique ; elle
n'a pas d'équivalent en physique classique, où l'effet du principe d'incertitude est
négligeable. Il faut donc, là aussi, enrichir notre définition du déterminisme.
Voici la portée approximative des 4 forces fondamentales [18] en fermi (fm), où
1 fm = 10-15m :

Interaction faible : 2 .10-3 fm ;

Interaction forte : 1 fm ;

La force de gravitation (exagérée sur le graphique) est beaucoup plus faible que
la force électromagnétique ; exemple : entre deux protons, la force de gravitation
est environ 1036 fois plus faible que la force électrostatique de Coulomb ; mais la
portée de ces deux forces est infinie.
Voir le schéma du Modèle standard [59].
224
3.5.8.9.7
Objectivité des mesures
En physique macroscopique une loi déterministe permet des prévisions de résultat
indépendantes de l'expérience, donc aussi objectives et indépendantes de
l'observateur. Par contre, selon certains non-physiciens, une mesure de physique
quantique est nécessairement perturbée par l'interprétation de l'expérimentateur, ce
qui l'empêche d'être objective. Nous allons d'abord voir la différence entre mesures
actives et mesures passives, puis développer le sujet de l'objectivité.
Mesures actives
J'appelle mesure active une mesure dont le dispositif expérimental échange
nécessairement de l'énergie avec l'objet ou le phénomène mesuré ; c'est le cas, par
exemple, de toutes les mesures de physique quantique. Une telle mesure ne peut
pas ne pas perturber son résultat, même si c'est souvent de manière négligeable en
physique macroscopique ; et la perturbation causée est toujours irréversible.
Exemple : si je mesure au laser la distance de la Terre à la Lune, en émettant un
faisceau laser de la Terre qui se réfléchit sur un réflecteur posé sur la Lune, puis
en calculant la distance à partir du temps mis par la lumière à faire l'aller-retour,
un non-physicien croit que j'effectue une mesure qui ne perturbe pas la distance
Terre-Lune, contrairement à une mesure de physique quantique. Pourtant, en
toute rigueur, la mesure au laser produit une impulsion [20] lumineuse qui exerce
une poussée sur le réflecteur lunaire, modifiant ainsi la distance mesurée.
L'erreur ainsi introduite est si minime qu'il n'est pas question d'en tenir compte
quantitativement, mais elle existe.
Autre exemple : une mesure de tension au voltmètre perturbe la tension
mesurée du fait de la petite consommation de courant du voltmètre, dont
l'aptitude à peu perturber se mesure en ohms par volt ; un voltmètre à 20 000
ohms/volt est plus perturbateur qu'un voltmètre à 100 000 ohms/volt.
Mesures passives
J'appelle mesure passive une mesure qui n'échange pas d'énergie avec l'objet ou le
phénomène mesuré. Si je mesure la hauteur d'une étoile au-dessus de l'horizon
grâce à la lumière que j'en reçois, je ne perturbe pas ma mesure par un échange
d'énergie ; de même si je mesure la largeur d'un livre en la comparant à la graduation
d'une règle posée à côté.
Objectivité d'une mesure - Les erreurs de certains non-physiciens
Lorsque des non-physiciens considèrent que la perturbation introduite par une
mesure en physique quantique en perturbe aussi l'objectivité, ils se trompent. Le
résultat d'une telle mesure est une valeur propre de l'observable mesurée [278],
valeur qui dépend de l'expérience mais pas de l'expérimentateur. Mais un nonphysicien ne sait pas ce qu'est une valeur propre d'opérateur auto-adjoint associé à
une quantité mesurable…
Certains non-physiciens - notamment certains philosophes – considèrent à tort
qu'une mesure ne perturbe ce qu'elle mesure que si elle est mal organisée. Et
lorsqu'ils apprennent qu'en physique quantique toute mesure perturbe la grandeur
mesurée, certaines personnes qui l'ont mal comprise en déduisent qu'à cette échellelà il n'existe pas de réalité objective, mais seulement des cas particuliers de réalité
225
associés à un contexte où l'homme qui mesure intervient nécessairement par ses
représentations mentales de la réalité.
C'est le cas, par exemple, du philosophe Jean Staune [205], si l'on en juge par ses
déclarations dans [61] :
"Les caractéristiques des particules élémentaires ne sont pas invariantes mais
dépendent de la façon dont on les observe. Cela récuse l'idée d'une objectivité
intrinsèque de la matière."
(M. Staune veut sans doute parler d'existence objective de la matière, car seul
l'homme peut être objectif, pas la matière, mais passons. Il fait peut-être allusion
au caractère contextuel de la physique quantique, établi par le théorème de
Kochen-Specker, caractère qu'il aurait mal compris.)
Hélas pour M. Staune, la connaissance scientifique est objective, c'est-à-dire
indépendante de l'homme qui la produit ou en parle ; ainsi, les caractéristiques des
particules élémentaires de la matière sont invariantes, qu'il s'agisse par exemple de
la masse au repos, de la charge électrique, du spin, ou pour les quarks de la couleur
et de la saveur ; la vitesse des photons [117] est tout aussi invariante, c'est celle de
la lumière ; les niveaux d'énergie des atomes sont invariants, etc. Aucune de ces
grandeurs ne dépend de l'expérimentateur ou de la méthode de mesure, et la valeur
de chacune existe objectivement, c'est-à-dire indépendamment de l'homme qui
mesure ou en parle, sauf :

Si on affirme à priori comme Platon qu'il n'existe que des idées et que l'homme
ne peut être objectif car il ne voit que des ombres, c'est-à-dire si on est un
spiritualiste ;

Ou si on est un historien des sciences qui les a mal comprises du fait de sa
formation exclusivement littéraire, etc.
Ce qui dépend de la mesure, du fait du principe d'incertitude ou du théorème de
Kochen-Specker, se limite aux couples d'observables qui ne commutent pas parce
qu'elles n'ont pas de base de valeurs propres [278] commune (leur produit a la
dimension d'une action [62] ) et qui sont mesurées simultanément. Et la limitation
concerne seulement des valeurs numériques de grandeurs, pas leur existence ou
leur objectivité.
Tout dispositif de mesure de physique quantique influe sur une grandeur mesurée en
limitant les résultats possibles aux valeurs propres de l'opérateur (observable)
associé, et en limitant la possibilité de mesurer une variable d'un système
indépendamment d'autres.
Exemple : un analyseur qui reçoit une onde lumineuse plane monochromatique
la filtre et détecte des photons polarisés selon une de ses deux directions
privilégiées. On ne pourra donc pas observer la polarisation indépendamment de
cette direction privilégiée. Mais ce n'est pas parce que l'analyseur a des
directions privilégiées (sans lesquelles il ne décomposerait pas l'onde et ne
l'analyserait pas) que l'onde n'existe pas objectivement, avec son propre plan de
polarisation. Affirmer comme M. Staune que la réalité n'existe qu'à travers
l'homme qui l'interprète c'est la confondre avec sa représentation, qui est
humaine par définition.
226
Et ce n'est pas parce que certaines représentations humaines de phénomènes à
l'échelle atomique ne sont possibles - vu leur taille - qu'avec les outils abstraits de la
Mécanique quantique conçue par l'homme, que la matière n'existe pas
objectivement !
Toute mesure est associée à un contexte, celui de l'appareil de mesure, de sa
méthode de mise en œuvre, de sa précision (penser par exemple au voltmètre), de
la mesure simultanée d'autres grandeurs, etc., et il ne faut pas que les difficultés que
cela induit et les précautions expérimentales indispensables nous fassent croire que
la réalité objective n'existe pas. Il ne faut pas, comme certains spiritualistes, affirmer
qu'une mesure n'est possible que si un homme conscient l'effectue, car alors aucun
appareil de mesure automatique ne fonctionnerait, et aucun engin spatial
télécommandé n'aurait mesuré le champ magnétique de la Lune derrière cet astre
avant de nous envoyer ses composantes par radio.
Pour une particule à un instant donné, la réalité objective est son état quantique, que
déterminent complètement et avec précision :

Les équations de la Mécanique quantique comme celle de Schrödinger ;

Des mesures qui ne produisent que des résultats prévus par une loi probabiliste,
chacun étant une valeur propre [278] du dispositif de mesure.
C'est ainsi qu'une situation où il existe une superposition d'états est une réalité
objective, dont certaines expériences ont pu prouver l'existence [1] même si elle
défie notre intuition. Et ce n'est pas parce qu'une mesure change la réalité objective
R1 de l'instant t1 qui précède la mesure, en une autre réalité objective R2 à l'instant t2
qui suit la mesure, que R1 n'existait pas ! (Voir 5e postulat de la Mécanique
quantique.)
3.5.8.9.8
La « mathématicophobie » et l'ignorance
Beaucoup de personnes sont intimidées par les sciences à base de mathématiques
comme la physique et l'astronomie. Elles sont victimes d'une pédagogie déficiente,
pas d'une incapacité pour une intelligence normale à assimiler des outils
mathématiques, incapacité qui n'existe pas plus que l'incapacité à maîtriser
l'orthographe.
L'impossibilité de décrire une réalité en soi à l'échelle atomique à partir de concepts
issus de nos sens adaptés à l'échelle macroscopique, et l'obligation de la décrire à
l'aide des mathématiques de la Mécanique quantique paraît à certains un vice
rédhibitoire de la méthode scientifique. Cette attitude est puérile, car elle postule
l'obligation de faire découler toute représentation du monde de concepts issus de
nos sens. Et comme nos sens ne peuvent percevoir ni les sons trop aigus ou trop
graves, ni les ondes électromagnétiques hors du spectre visible (longueur d'onde 0.4
à 0.7 μm), ni bien d'autres phénomènes, refuser toute représentation abstraite non
basée sur nos sens est absurde.
Décrire quelque chose exige d'en construire une représentation abstraite, et rien
n'impose de limiter les abstractions à celles issues directement de nos sens ; celles
issues de concepts à priori de l'entendement comme les outils mathématiques
conviennent tout aussi bien sinon mieux, car ils sont moins ambigus.
227
Polémique
Je constate que je n'ai rencontré de personnes qui contestent l'existence d'une
réalité en soi (comme la matière) en s'appuyant sur la Mécanique quantique que
parmi les spiritualistes comme M. Staune, qui tentent d'interpréter les conclusions de
ses mathématiques comme une preuve de cette non-existence pour justifier les
intuitions de leur spiritualisme (voir discussion sur l'objectivité et la subjectivité). Ils
reprochent en fait à la Mécanique quantique de ne pas décrire l'essence intuitive des
particules, sans laquelle (pour eux et eux seuls) celles-ci n'existent pas. Hélas, ils ont
mal compris la Mécanique quantique ! En niant l'existence d'une réalité en soi, les
spiritualistes veulent réfuter le déterminisme, pour faire triompher l'intervention
transcendante de l'esprit dans tout ou partie des phénomènes constatés. Leur
combat est idéologique. C'est pourquoi, dans le débat [61] son contradicteur, le
philosophe matérialiste André Comte-Sponville lui a répondu :
"Vous avez écrit 500 pages pour enfoncer une porte ouverte : montrer que la
croyance en Dieu est toujours possible. Mais qui le nie ? Vous ne verrez aucun
philosophe sérieux affirmer qu'il est impossible de croire en Dieu ! D'un point de
vue logique et métaphysique, chacun sait depuis longtemps - lisez Kant ou
Hume, Pascal ou Montaigne - que la croyance en Dieu est possible, que nous ne
pouvons prouver ni son existence ni son inexistence !"
Certains spiritualistes invoquent l'interprétation de Bohr pour nier que la physique
quantique soit une représentation de la réalité. Bohr avait conseillé en 1927 de faire
confiance aux modèles mathématiques (équation de Schrödinger, etc.) pour faire des
calculs et des prédictions justes dans chaque cas expérimental, sans s'occuper
d'interpréter les résultats comme une description de la réalité objective ou d'une
essence quelconque. Cette réalité existe bien objectivement, mais chaque
expérience en est un cas particulier où la mesure effectuée intervient par passage
irréversible à l'échelle macroscopique qui ne fournit qu'un résultat après mesure, pas
avant. Tous les cas particuliers de la physique quantique ont en commun les
modèles mathématiques, universels eux, c'est-à-dire les lois de l'Univers à l'échelle
atomique.
80 ans après la prise de position de Bohr, le consensus des scientifiques sur les
modèles mathématiques de la Mécanique quantique est le suivant :

Ces modèles représentent bien - et en totalité - la réalité physique. Ils en
décrivent tout ce qu'on peut savoir, les postulats qui l'affirment n'ayant jamais été
réfutés mais ayant été confirmés un nombre immense de fois.

Ces modèles et les résultats des mesures sont objectifs, c'est-à-dire
indépendants de l'observateur et de ce que son esprit sait ou ne sait pas.
A nous d'admettre qu'à l'échelle atomique la réalité a pour représentation des
équations produisant des fonctions d'onde probabilistes, et des opérateurs autoadjoints appelés observables avec leurs valeurs propres [278]. Ces notions ne sont
pas issues des sens ; et c'est parce que notre esprit doit se faire violence en
admettant des représentations si abstraites que Bohr conseillait de ne pas perdre de
temps à construire ces représentations mentales, mais d'accepter les prévisions
calculées, y compris avec les limitations de précision dues aux incertitudes.
228
3.5.8.10
Quantification des interactions et conséquences sur le déterminisme
L'existence du quantum d'action h révèle une propriété fondamentale de toute
interaction : pour qu'une source influence physiquement une cible (action mécanique,
électrique, échange thermique, rayonnement, etc.) elle doit émettre un nombre entier
de quanta d'interaction qui se propageront jusqu'à cette cible. Par exemple une
influence (c'est-à-dire un champ) électromagnétique échange des quanta
d'interaction appelés photons [117] ; cette influence est un rayonnement. La
propagation se fait à une vitesse qui ne peut dépasser celle de la lumière dans le
vide, appelée c, et valant exactement (par définition, car c'est une unité
fondamentale) c = 299 792.458 km/s. Il y a 4 types d'interaction physique [18].
Exemple : tout échange d'énergie par rayonnement électromagnétique (par
exemple lorsqu'un corps chaud se refroidit en émettant un rayonnement) met en
jeu un nombre entier de photons. L'énergie d'un photon de fréquence  est
exactement égale à h, et l'échange d'énergie par rayonnement de fréquence 
ne peut se faire que par quantités discontinues multiples de h.
Voir aussi le paragraphe "Nécessité d'une interaction avec échange d'énergie".
3.5.8.10.1 Différence entre quantification et imprécision
Le caractère discontinu d'un échange d'énergie électromagnétique, qui pour chaque
fréquence  échange une quantité d'énergie multiple de h, introduit une impossibilité
d'échanger certaines quantités non multiples de h. Il ne faut pas confondre cette
impossibilité, qui rend discrète la variable énergie, avec une imprécision qui
empêcherait de préciser sa valeur.
Voici un exemple de différence entre une variable discrète et une variable continue à
valeur imprécise. Une source lumineuse monochromatique de fréquence  rayonne
chaque seconde une quantité d'énergie sous forme d'ondes électromagnétiques,
quantité discontinue multiple entier du quantum h. Mais la position d'un électron en
mouvement sous l'action d'un champ électrique est une grandeur continue, dont la
détermination à un instant donné a une incertitude au moins égale à la plus grande
des deux largeurs suivantes :

La demi-largeur du paquet d'ondes accompagnant le déplacement de l'électron,
qui rend sa position imprécise ;

L'existence d'une longueur d'onde de Compton associée à la masse de l'électron
[134], longueur qui détermine une précision maximale de taille ou de position.
3.5.8.10.2
Echanges quantifiés d'énergie et conservation de l'énergie
Lorsque des particules subatomiques chargées électriquement comme les électrons
interagissent, elles le font par échange de photons [117]. Conformément au 1 er
principe de la thermodynamique [25], chaque échange conserve l'énergie totale,
entre le moment où il débute et un photon est émis, et le moment où il prend fin et le
photon est absorbé. Mais pendant le court instant Δt où l'échange a lieu, il n'y a pas
nécessairement conservation de l'énergie : le principe d'incertitude de Heisenberg
permet une variation d'énergie ΔE telle que ΔE  ½ä / Δt : tout se passe comme si le
photon échangé empruntait une quantité d'énergie au plus égale à ΔE pendant au
plus Δt secondes à l'énergie potentielle du milieu (vide) environnant, et la restituait
ensuite à la fin de l'échange. Ce photon à énergie empruntée puis restituée est
229
appelé « virtuel », car on ne peut le mettre en évidence expérimentalement ; et il
existe des particules virtuelles soumises au principe d'incertitude pour toutes les
interactions [18], sauf peut-être la gravitation.
Voir aussi les paragraphes "Exemple : portée des forces et masse des
particules" et "Un vide plein d'énergie".
La non-conservation de l'énergie, phénomène bien réel mais négligeable en
physique classique, nous oblige elle aussi à revoir la notion de déterminisme que
nous devons à Newton et Lagrange.
3.5.8.10.3
Conséquences de la quantification des interactions : extension du
déterminisme
Le déterminisme des lois physiques doit donc être étendu pour tenir compte du
caractère discret et quantifié de toutes les interactions (y compris, depuis 2014, la
gravitation [313] ), contrairement à l'intuition qui nous faisait croire qu'elles étaient
continues parce que le quantum d'action h est extrêmement petit à l'échelle humaine
(c'est ainsi qu'il faut l'énergie de 12 milliards de milliards de photons [117] de lumière
orangée pour chauffer 1 gramme d'eau de 1 degré C !).
Nous avons vu ci-dessus qu'une cause de départ, origine d'une interaction, pouvait
avoir plusieurs conséquences, dont une seule sera choisie au hasard lors de la
décohérence. Nous savons maintenant, en plus, que toute interaction est quantifiée
et qu'à l'échelle atomique certaines valeurs numériques associées à un état
conséquence d'une interaction sont discrètes.
Le déterminisme des lois physiques doit donc être étendu pour tenir compte de la
nature quantifiée des interactions, ainsi que de la nature discrète possible des
variables d'état d'une conséquence.
Voir la citation du mathématicien René Thom sur le hasard [226].
3.5.8.10.4 Quantification des vibrations - Phonons et frottements
Toute action sur de la matière agit sur ses atomes [108]. L'énergie des vibrations
mécaniques en tout genre est aussi quantifiée. Le quantum d'énergie vibratoire est
appelé phonon. Lorsqu'un groupe d'atomes vibre, qu'il s'agisse de vibrations par
ondes sonores ou par réaction à des champs électromagnétiques alternatifs,
l'énergie de chacun de ses atomes est quantifiée, contrairement à notre intuition qui
voudrait la croire capable de varier de manière continue. Un atome qu'une vibration a
écarté de sa position d'équilibre par translation ou rotation transmet un écart à ses
voisins, la perturbation s'étendant de proche en proche. Du reste, il n'y a pas que
l'énergie échangée qui soit quantifiée, l'impulsion [20] et le moment cinétique le sont
aussi.
A part les divers types de vibrations, le quantum qu'est le phonon intervient dans
toutes sortes de phénomènes de physique du solide comme la conductivité
électrique, la chaleur spécifique, la conductivité thermique, la supraconductivité, la
ferroélectricité…
Nous devons donc nous habituer à ce que toutes sortes de phénomènes soient
quantifiés, donc discontinus et n'apparaissant qu'au-delà d'un certain seuil minimum.
230
C'est ainsi que lorsque deux objets sont en contact et que l'on veut déplacer l'un par
rapport à l'autre, l'existence de frottements a des effets atomiques et entraîne
l'existence d'un effort minimum et d'un bond minimum : un déplacement avec
frottement ne peut être continu. Notre déterminisme intuitif doit être révisé aussi dans
tout ce qui concerne les vibrations et les mouvements avec frottement.
3.5.8.10.5 Effets mécaniques et thermiques de la lumière
L'absorption ou l'émission de lumière - ou plus généralement des photons [117] d'un
rayonnement électromagnétique - par de la matière a trois sortes d'effets
mécaniques ou thermiques :

Un échange d'énergie thermique ;

Un échange d'impulsion lumineuse des photons contre de la quantité de
mouvement de l'objet matériel, qui a tendance à prendre ou céder de la vitesse
en vertu du principe de conservation de l'impulsion ;
Un photon de longueur d'onde  a une impulsion p = h/ [20]. Malgré sa
petitesse, cette impulsion peut avoir un effet perceptible à l'échelle
macroscopique : lorsqu'un rayonnement lumineux tombe sur une surface ou en
part, celle-ci subit une poussée. Cette poussée se manifeste, par exemple :
 Par la rotation d'un petit tourniquet à ailettes ;
 Par la stabilité de certaines étoiles, dont l'enveloppe gazeuse subit une
pression des rayonnements venus du noyau qui équilibre la gravitation ;
 Par la poussée que subit la Terre sous l'influence du rayonnement solaire :
environ 6 109 newtons (~600 000 tonnes-force), ce qui est peu par rapport à
la force de gravitation.
La lumière émise exerce une pression sur la surface qui l'émet.

Un échange de moment cinétique entre les photons et l'objet matériel.
C'est ainsi qu'une lumière polarisée circulairement exerce un couple de rotation
sur une surface sur laquelle elle tombe, couple extrêmement faible mais non
nul ; chaque photon apporte un moment cinétique multiple entier de ä :
-2ä, -1ä, 0, +1ä, +2ä… dont le signe dépend du sens de rotation.
Voici des exemples de fronts d'onde polarisées circulairement cités par [330] :
-1ä
0ä
+1ä
+2ä
+3ä
Fronts d'onde de lumière polarisée circulairement
Les phénomènes d'échange de chaleur sont bien connus, mais les phénomènes
d'échange d'impulsion et de moment cinétique ne sont connus que par peu de
personnes. Ils peuvent pourtant être lourds de conséquences :
231

En 28 mois, l'orbite du satellite artificiel Vanguard 1 ("Pamplemousse"), de 16 cm
de diamètre, a été déplacée de 1600 m par la pression du rayonnement solaire,
selon [105] page 823.

L'une des méthodes envisagées pour protéger l'humanité contre un astéroïde
qui risquerait de percuter la Terre consiste à y envoyer une équipe qui en
recouvrirait une partie d'un matériau réfléchissant comme une feuille de
plastique aluminisé, changeant ainsi la poussée de la lumière solaire sur lui,
donc sa trajectoire.
3.5.8.10.6 Effets photoélectriques
Lorsque de la lumière est absorbée par de la matière, il y a – en plus des effets
mécaniques et thermiques ci-dessus – trois effets dits photoélectriques :

L'émission photoélectrique : lorsque de la lumière frappe de la matière avec une
énergie suffisante, elle détache des électrons de certains atomes, électrons qui
peuvent être attirés par un champ électrique.

La photoconductivité : augmentation de la conductivité d'un semi-conducteur qui
absorbe la lumière. Cette propriété peut être utilisée, par exemple, pour mesurer
la quantité de lumière.

L'effet photovoltaïque : transformation directe de la lumière en énergie
électrique, qui apparaît sous forme de différence de potentiel entre les deux
côtés d'une jonction. Cette propriété est utilisée, par exemple, dans des
panneaux solaires qui produisent de l'électricité.
3.5.8.11

Conséquences des diverses imprécisions sur le déterminisme
L'imprécision sur des valeurs de variables introduit dans certaines
transformations à étapes multiples l'existence de branches supplémentaires
dans l'arborescence de conséquences issue de l'état initial. Elle ne fait ainsi que
multiplier les évolutions possibles entre lesquelles un choix s'opère.
Le déterminisme des lois physiques doit être étendu pour tenir compte des
imprécisions, qui introduisent des branches supplémentaires dans
l'arborescence de conséquences issue d'un état initial.
Exemple du mouvement brownien : considérons un récipient cubique fermé de
quelques centimètres de côté, supposé parfaitement vide à l'exception d'une
molécule de gaz unique. Du fait de la température, cette molécule se déplace
tout le temps, son énergie cinétique résultant de la température. Dans son
déplacement, la molécule rebondit sur les parois. Pour fixer les idées, la vitesse
d'une telle molécule est de l'ordre de 1 km/s ; elle rebondit donc chaque seconde
de nombreuses fois sur les parois et sa trajectoire est une ligne brisée très
complexe. Du fait de l'incertitude sur les positions d'impact due à la largeur d'un
paquet d'ondes, chaque point où on prévoit que la molécule heurtera la paroi est
en fait une petite surface ayant une certaine étendue, et la vitesse du choc est
elle-même définie avec une certaine imprécision - en grandeur comme en
direction.
Comme à l'échelle atomique la surface du récipient présente des aspérités, le
moindre déplacement d'un point d'impact peut introduire une variation importante
232
de la direction dans laquelle la molécule rebondit, direction qui s'avère donc
imprévisible car entachée de trop d'incertitude. Le rebond suivant pourra donc
être très différent selon la direction du rebond précédent.
En plus, lorsqu'il y a plus d'une molécule dans le récipient et que deux
molécules A et B entrent en collision, un choc de A à un endroit légèrement
différent de B - ou avec un vecteur vitesse légèrement différent - pourra faire
rebondir A et B avec des vecteurs vitesse très différents.
On voit donc que les trajectoires possibles de la molécule (unique ou non), à
partir d'un point précis donné où elle avait un vecteur vitesse précis, peuvent être
représentées par une arborescence de conséquences où chaque nœud
représente un rebond et chaque branche une direction possible à partir de ce
nœud. Il y a bien multiplication des branches possibles de l'arborescence de
conséquences : la prévision d'une trajectoire à multiples rebonds est impossible,
on sait seulement que la trajectoire qui sera effectivement observée est l'une des
trajectoires possibles, associée à l'une des chaînes de conséquences de
l'arborescence des évolutions possibles.
Convergence possible des fins de trajectoires multi-étapes, c'est-à-dire des
conséquences finales d'une cause de départ - Attracteurs
En pratique, il peut arriver que les diverses chaînes de causalité de
l'arborescence des trajectoires possibles ne soient pas équiprobables. On
observe alors parfois des points - (ou dans l'espace des phases des couples
point, vecteur vitesse en ce point) - au voisinage desquels la probabilité de fin
d'une trajectoire est bien plus grande qu'ailleurs. Ces points sont appelés
« attracteurs », parce que les fins de trajectoires possibles convergent dans leur
voisinage ; nous avons déjà évoqué cette notion. Pour d'autres exemples
d'attracteurs voir "Attracteurs multiples" et "Accidents de la réplication du
génome".
Impossibilité de remonter d'une conséquence à sa cause
Autre conséquence de cette incertitude sur la trajectoire d'une molécule, on ne
peut pas remonter à son origine : à partir d'un point P atteint après des milliers
de rebonds, même si on connaît les incertitudes sur la position P et la vitesse en
P, ces grandeurs mesurées ne permettent pas de reconstituer la trajectoire de la
molécule, c'est-à-dire de savoir où elle se trouvait une seconde auparavant,
contrairement à ce que voudrait le déterminisme philosophique [200].
Pourtant, au niveau macroscopique de la thermodynamique, le comportement du
gaz est déterministe au sens classique. A volume de récipient constant, par
exemple, la pression du gaz intérieur est strictement proportionnelle à sa
température absolue [121], d'après la loi des gaz parfaits pv=nRT.

Du fait des incompatibilités de détermination simultanée de certains couples de
variables, leurs valeurs ne peuvent pas être déterminées de manière
indépendante dans une expérience donnée. La connaissance de la plage d'une
des valeurs contraint (limite) ce qu'il est possible de connaître de l'autre,
déterminant ainsi sa propre plage de valeurs : une plage détermine l'autre.
233
Le déterminisme des lois physiques doit aussi être étendu pour tenir compte de
la non-indépendance de certaines variables d'état et de l'interdépendance de
leurs imprécisions.

Des principes considérés comme évidents en physique macroscopique peuvent
être violés en physique quantique. Nous devons donc réviser nos notions sur
l'évidence, notamment celles sur la causalité. Voici des exemples.
 Le principe de conservation de l'énergie peut être violé dans des
expériences où l'intervalle de temps Δt est très court : du fait de la relation
ΔE . Δt  ½ä, une paire particule-antiparticule peut naître en empruntant son
énergie à l'espace environnant, se propager sur une courte distance et
disparaître par recombinaison en restituant l'énergie empruntée.
Cela se produit notamment lorsqu'un trou noir « s'évapore » en rayonnant
des particules et des antiparticules, processus connu sous le nom « d'effet
(ou rayonnement) Hawking ». Du fait du principe d'incertitude, plus
l'intervalle de temps Δt considéré est petit, plus la violation temporaire de la
conservation de l'énergie peut être grande (ΔE grand).


Autres violations possibles pendant un temps court : la conservation de
l'impulsion ; la conservation du nombre de particules (certaines peuvent
apparaître, d'autres peuvent disparaître ou se transformer…)
« L'effet tunnel » permet à un corpuscule de franchir une barrière de
potentiel, alors qu'en principe son énergie est insuffisante. C'est ainsi que,
dans certains transistors, un électron peut passer à travers un isolant. C'est
là un effet de la nature également ondulatoire de ce corpuscule : les ondes
de probabilité de présence traversant la matière, il existe une probabilité de
présence non nulle dans la barrière et de l'autre côté (nous l'avons déjà vu).
Une mise en évidence expérimentale de la position d'une particule subissant
l'effet tunnel ne peut donner qu'un seul résultat, comme lors d'une
décohérence, alors que la particule a une probabilité de présence non nulle
dans toute une région de l'espace, notamment des deux côtés de la barrière.
Autre paradoxe : la règle relativiste qui empêche une interaction de se
propager plus vite que la lumière conduit dans certains cas à l'apparition
dans les calculs de particules d'énergie négative. En renversant le sens du
temps, c'est-à-dire de la causalité, une énergie négative se comporte
comme une énergie positive. On interprète donc une particule d'énergie
négative qui remonte le temps comme une antiparticule d'énergie positive
qui le descend, l'antiparticule ayant la même masse que la particule
d'origine, mais une charge électrique opposée.
Antiparticule : Pour que la causalité se produise bien dans le sens du
présent vers l'avenir, il faut qu'existe pour chaque particule chargée
électriquement une antiparticule de charge opposée et de même masse :
l'électron de charge négative -e [150] a pour antiparticule le positon (on dit
aussi positron) de charge +e ; au proton correspond l'antiproton ; à l'atome
d'hydrogène
proton + électron
correspond
l'antihydrogène
antiproton + positon, etc. C'est ainsi que Dirac a découvert les antiparticules
par raisonnement, avant que leur existence soit prouvée expérimentalement.
Et lorsqu'une particule rencontre son antiparticule, elles s'annihilent en
libérant de l'énergie et/ou en créant une autre paire particule-antiparticule…
234

La validité du principe d'incertitude rend très approximatif le modèle atomique
proposé par Niels Bohr en 1913, modèle où un électron de masse m tourne à la
vitesse v autour de son noyau selon une trajectoire circulaire de rayon r
analogue à celle de la Terre autour du Soleil.
En effet, pour que ce modèle soit plausible il faudrait que les incertitudes Δx sur
la position x de l'électron, et Δp sur son impulsion p = mv, soient négligeables
devant r et p respectivement, ce qui est loin d'être le cas pour les trajectoires de
niveau d'énergie habituel. (Nous avons déjà présenté les trajectoires
électroniques).
3.5.9
4e extension du déterminisme : lois de conservation et symétries
Voici quelques détails supplémentaires concernant l'uniformité de l'Univers.
3.5.9.1
Invariance de valeurs, invariance de lois physiques
Certaines lois physiques de conservation sont connues depuis longtemps et nous
paraissent évidentes, relevant du simple bon sens et du déterminisme le plus
traditionnel. Exemples :

La conservation de la charge électrique impose que toute évolution d'un système
fermé conserve sa charge électrique totale, qui ne peut ni croître ni décroître.

Masse m et énergie E sont deux propriétés indissociables d'un système, dont les
variations sont reliées par la célèbre équation d'Einstein ΔE = Δm.c². Toute
évolution d'un système fermé conserve la somme masse + énergie.
Les deux exemples ci-dessus illustrent des conservations de valeurs de variables (la
charge électrique, la masse + énergie…) lorsqu'un système évolue. Mais puisque
toute évolution physique est déterministe (obéit à des lois stables), on doit aussi se
poser la question de l'invariance des lois qui régissent les évolutions : par exemple,
que devient une de ces lois lorsque l'on change le repère des coordonnées
d'espace-temps ?
Par définition, si une équation représentant une loi physique reste invariable lors d'un
changement, on dit qu'elle est symétrique par rapport à ce changement : la symétrie
est ici synonyme d'invariance.
3.5.9.2

Invariance de lois physiques par rapport à l'espace et au temps
L'invariance par déplacement (translation et rotation) traduit l'homogénéité et
l'isotropie de l'espace : un changement du repère R(Ox ;Oy ;Oz) en repère
R'(O'x' ;O'y' ;O'z'), où R' se déduit de R par déplacement de l'origine des axes
d'un vecteur OO' suivi d'une rotation autour d'un axe quelconque, laisse la loi et
son équation inchangées. C'est le cas, par exemple, pour la loi fondamentale de
la dynamique f = mr''.
Ce type de symétrie est appelé symétrie euclidienne, car elle traduit deux
propriétés de l'espace euclidien, l'homogénéité et l'isotropie.
 L'homogénéité de l'espace a pour conséquence la conservation du vecteur
mv, quantité de mouvement d'un corps de masse m, et du vecteur impulsion
p d'une particule sans masse.
235


L'isotropie de l'espace a pour conséquence la conservation du vecteur
moment cinétique r  mv ou r  p, où :
 r est le vecteur associé à la distance OA entre le point matériel A de
masse m et vitesse v, et le point O par rapport auquel on évalue le
moment cinétique ;
 p est le vecteur impulsion d'une particule sans masse ;
  est l'opérateur de produit vectoriel.
L'invariance par translation dans le temps traduit la stabilité des lois physiques
dans le temps. Si on change l'origine des temps, par exemple en faisant
commencer notre calendrier au début du XXIe siècle, le 1er janvier 2001, les lois
physiques sont inchangées. Cette invariance a une conséquence importante, la
conservation de la masse et de l'énergie d'un système isolé.
Ce type de symétrie est appelé symétrie temporelle, dénomination qui introduit
une confusion possible avec celle qui laisse invariante une équation par
changement de t en -t.

Invariance par changement de repère galiléen. Par définition, un changement de
repère galiléen fait passer d'un repère R(Ox ;Oy ;Oz) à un repère
R'(O'x' ;O'y' ;O'z') d'axes parallèles à ceux de R et en mouvement rectiligne
uniforme à la vitesse v par rapport à R ; à l'instant t=0, les origines des deux
repères O et O' coïncident. Dans un tel changement, un vecteur r de R devient
r - vt dans R'.
Cette symétrie traduit le fait que certaines lois physiques sont les mêmes pour
deux observateurs en mouvement rectiligne uniforme l'un par rapport à l'autre.
Elle implique notamment le « principe d'additivité des vitesses » [36], dont voici
un exemple : si, dans un train qui roule à 100 km/h, je marche de l'arrière vers
l'avant à la vitesse de 5 km/h, ma vitesse par rapport au sol est
100 + 5 = 105 km/h.
Ce type de symétrie est appelé symétrie galiléenne du nom du physicien Galilée.
Elle fait partie des hypothèses de base de la mécanique classique de Newton
[110], qui suppose l'existence d'un espace (et d'un temps) absolus. Ces
hypothèses et la symétrie galiléenne sont des approximations, acceptables
seulement lorsque les vitesses sont négligeables par rapport à la vitesse de la
lumière, c : nous allons voir cela à propos de l'invariance relativiste.

Invariance relativiste. En 1887, Michelson et Morley ont observé que la vitesse
de la lumière est constante dans toutes les directions de l'espace. Elle ne
s'ajoute donc pas à la vitesse de déplacement de la Terre autour du Soleil
(30 km/s), à celle du Soleil en direction de l'étoile  de la Lyre (20 km/s), à celle
due à la rotation de la Galaxie, etc. La vitesse de la lumière est donc une donnée
invariante, une constate de l'Univers.
Pour tenir compte de cette invariance, Lorentz a proposé en 1904 une
transformation linéaire permettant un changement de repère qui préserve
l'invariance des lois de la dynamique. Il suffit de remplacer la loi galiléenne
r' = r - vt par une loi qui change simultanément l'espace et le temps ; on passe
alors du repère (R) où les coordonnées sont (x ; y ; z ; t) à un repère (R') où elles
sont (x' ; y' ; z' ; t') comme suit :
236
′
𝑥 =
𝑥 − 𝑣𝑡
√1 − 𝑣²
𝑐²
𝑣
𝑥
𝑐²
𝑡′ =
√1 − 𝑣²
𝑐²
𝑡−
y'  y
z'  z
Transformation de Lorentz utilisée en Relativité Restreinte
(On a choisi les axes de (R) et (R') de manière à ce qu'ils soient parallèles, que
le mouvement de (R') par rapport à (R) soit parallèle à Ox à vitesse constante v,
et que l'instant 0 de (R) coïncide avec l'instant 0 de (R') ).
Ce type de symétrie est appelé symétrie relativiste ; c'est celle de la théorie de la
Relativité Restreinte d'Einstein.
Lorsque la vitesse relative v est très faible par rapport à c, cette loi de
changement de repère équivaut à la loi galiléenne d'additivité des vitesses :
x' = (x - vt) ; y' = y ; z' = z ; t' = t
La symétrie relativiste :
 Contracte ou dilate l'espace (les longueurs) selon le sens du déplacement
par rapport à un observateur ; mais (surprise !) une sphère en mouvement
reste sphérique, elle ne devient pas un ellipsoïde.
 Dilate le temps pour une horloge en mouvement, qui prend du retard par
rapport à une horloge fixe (par exemple lors des voyages en avion).
 Sépare deux événements simultanés distincts de (R), distants de Δx, à la
fois dans l'espace et dans le temps dans (R').
La relativité affecte la causalité, donc le déterminisme : si deux événements
situés en des endroits distincts A et B sont simultanés, l'un ne peut être
cause de l'autre ; mais vus d'un troisième point, C, distinct de A et B, ils ne
sont plus simultanés. Si l'observateur en C ne connaît pas l'emplacement
spatial de A et B et ne sait pas qu'ils sont simultanés, il peut croire que l'un
est cause de l'autre. Pour plus de détails voir l'espace-temps de Minkowski.
La symétrie relativiste conserve les lois de la dynamique à condition de
transformer les longueurs, les durées et les masses conformément aux
équations de Lorentz. C'est ainsi, par exemple, que la masse d'un corps qui vaut
m0 au repos varie avec la vitesse v selon la loi
m
m0
1
v²
c²
qui implique l'impossibilité pour un corps pesant d'atteindre la vitesse de la
lumière c, où sa masse serait infinie. L'énergie relativiste totale de ce corps est :
237
E
m0 c ²
1
v²
c²
Cette énergie tend vers l'infini lorsque v tend vers c : pour accélérer une masse
au repos m0 jusqu'à la vitesse c, il faudrait une énergie infinie ; aucun corps
pesant ne peut donc atteindre la vitesse de la lumière, et les plus puissants
accélérateurs de particules ne peuvent accélérer celles-ci au-delà d'une énergie
de l'ordre de 10 000 GeV (1.6 .10-6 joule), correspondant pour un proton à
99.9999995 % de la vitesse de la lumière.
3.5.9.3
Invariances et lois de conservation (lois fondamentales de la physique)
En 1918, Emmy Noether a démontré que l'invariance d'une théorie physique par
rapport à une transformation continue se traduit toujours par l'existence d'une loi de
conservation d'une quantité. Toutes les symétries que nous venons de voir sont
continues, qu'il s'agisse de la symétrie euclidienne, de la symétrie temporelle, de la
symétrie galiléenne ou de la symétrie relativiste. Il y en a d'autres, dont voici des
exemples.

La conservation de la charge totale dans toute transformation est vraie
séparément pour la charge électrique, la charge baryonique et la charge
leptonique.

La symétrie par rapport à un plan, celle qui intervient dans la formation d'une
image dans un miroir, laisse inchangées les interactions gravitationnelle,
électromagnétique et nucléaire décrites dans [18], mais pas l'interaction faible.
Les lois fondamentales de la dynamique sont invariantes par cette symétrie.
On parle alors de conservation de la parité ou de « symétrie P ». La symétrie
d'opérateur P génère une image miroir de la fonction d'onde : P(r) = (-r).

La symétrie par changement du sens du temps est en fait un renversement de
l'évolution, un « déroulement du film à l'envers ». Nous en avons vu un exemple.
Les interactions fondamentales, dont les quatre types sont cités dans [18], sont
invariantes par cette symétrie, appelée « symétrie T ».
Les lois fondamentales de la dynamique sont aussi invariantes par symétrie T.

La conjugaison de charge, appelée aussi « symétrie C » est celle qui fait passer
d'une particule à son antiparticule dans les équations. Toute particule a son
antiparticule, qui a même masse et même durée de vie, mais des nombres
quantiques de charge opposés. Ne pas confondre la conjugaison de charge
avec la conservation de la charge ci-dessus.
Les lois fondamentales de la dynamique sont invariantes lorsque toutes les
charges sont remplacées par des charges de signe opposé.
Comme les symétries d'opérateurs P et T, la symétrie d'opérateur C a la
propriété suivante : deux opérations successives ramènent à l'état initial.
Pour respecter la symétrie de conjugaison de charge, l'Univers devrait être
électriquement neutre et avoir autant de particules de chaque espèce que
238
d'antiparticules. Mais, hélas, les observations montrent qu'il n'en est rien et la
raison de cette asymétrie est inconnue.

L'invariance CPT est celle des lois d'évolution qui se conservent si on applique
simultanément les trois symétries C, P et T. Une telle loi est identique dans notre
Univers et dans un univers hypothétique où les particules seraient devenues des
antiparticules, la droite serait devenue la gauche comme dans un miroir, et le
temps s'écoulerait à l'envers !
Si une loi décrivant un phénomène physique violait l'invariance CPT, elle serait
en contradiction avec toutes les lois fondées sur la théorie quantique des
champs et même avec le principe de causalité. L'invariance CPT est donc un
des principes fondamentaux du déterminisme scientifique [9].
Lois fondamentales de la physique
A l'échelle atomique nous avons vu, en abordant l'état quantique d'un système, qu'il
représente tout ce qu'on peut savoir sur le système à un instant donné (toute
l'information à son sujet). La Mécanique quantique et l'Electrodynamique quantique
permettent de manipuler mathématiquement les variables de cet état quantique en
décrivant des comportements statiques ou évolutifs dans des circonstances
données. L'étonnant est que la nature se comporte exactement comme ces outils
l'affirment : chaque comportement de système permis mathématiquement se réalise
dans la mesure où il respecte toutes les lois de conservation.
Les lois physiques de conservation sont donc les lois fondamentales de la nature.
Elles régissent des comportements fondamentaux respectés par les autres lois.
Les mesures physiques sont basées sur les constantes fondamentales de l'Univers
que sont la vitesse de la lumière c, la charge de l'électron e, la constante de Planck
h, la constante de gravitation G, etc., dont sont dérivées toutes les unités utilisées.
Les valeurs numériques des variables dépendent du système d'unités. Le plus utilisé
aujourd'hui est le Système International (SI) dont les unités fondamentales sont le
mètre, le kilogramme, la seconde, l'ampère, le degré de température kelvin,
l'intensité lumineuse en candélas et la mole (quantité de molécules ou d'atomes
correspondant au Nombre d'Avogadro).
3.5.9.4
Un vide plein d'énergie
Le terme « vide » représente pour nous un espace sans matière ni énergie. Nous
allons voir que cette conception est simpliste, ne serait-ce que parce que tout point
de l'espace cosmique est parcouru par des rayonnements électromagnétiques
porteurs d'énergie.
3.5.9.4.1
Le vide de la physique quantique
En physique, le vide est l'espace qui entoure la matière (faite de leptons et quarks) et
véhicule des interactions [18] résultant de champs de force. C'est aussi l'espace
entre atomes d'une molécule et entre électrons et noyau d'un atome.
Fluctuations quantiques
Le principe d'incertitude de Heisenberg ΔE.Δt  ½ä, fait qu'en un point donné on ne
peut pas définir une énergie avec une incertitude meilleure que ΔE pendant un
temps donné Δt. Cette incertitude énergétique permet au vide quantique d'être le
239
siège de « fluctuations quantiques » d'énergie, avec apparition d'états dits
« virtuels » parce qu'on ne peut les mettre en évidence expérimentalement. Ces
fluctuations peuvent se matérialiser (spontanément ou en réponse à une excitation particule ou rayonnement), en faisant apparaître une paire particule-antiparticule,
paire qui emprunte son énergie ΔE au vide environnant pendant un temps
Δt  ½ä / ΔE. Dès leur apparition, les quatre interactions [18] agissent sur la particule
et l'antiparticule : celles-ci s'attirent, se rejoignent et s'annihilent en restituant
l'énergie empruntée ; en outre par effet Lamb, les particules virtuelles apparaissant
dans un atome en modifient légèrement les niveaux d'énergie.
Le regroupement des particules d'une paire est rapide et inévitable dans un
espace-temps plat ou à courbure très faible. Mais au tout début de l'Univers,
lorsque l'espace-temps avait une forte courbure, et particulièrement pendant la
courte et brutale période d'inflation, les particules d'une paire ont pu se trouver
séparées trop vite pour s'attirer et disparaître, elles peuvent être devenues
durables. Ce phénomène se poursuit de nos jours lorsqu'un trou noir
« s'évapore ».
La présence d'une telle paire de charges opposées crée une polarisation et une
déformation relativiste du vide, donc un champ qui agit sur la charge électrique ou la
couleur d'une particule.
L'action d'un champ sur une particule décroît avec la distance de la particule
lorsqu'il s'agit du champ électrique ou gravitationnel. Mais lorsqu'il s'agit du champ de
couleur agissant sur un quark [18], nous avons vu que l'action croît avec la distance
(ce qui est absolument contraire à l'intuition et au déterminisme traditionnel !) : pour
séparer les quarks d'une paire on devrait fournir une énergie qui croît avec la
distance entre ces quarks, et dès que cette énergie suffit pour séparer les deux
quarks elle est absorbée par la création d'une nouvelle paire de quarks, un nouveau
quark apparaissant pour se coller à chacun des deux anciens quarks séparés ! Ce
phénomène interdit donc aux quarks d'être isolés pendant plus d'une infime fraction
de seconde.
L'effet Casimir
Cette polarisation du vide avec apparition de paires particule-antiparticule est mise
en évidence par « l'effet Casimir », prévu en 1948 et observé en 1996 : la présence
de deux plaques conductrices distantes de quelques millièmes de millimètre élimine
certaines charges et diminue l'énergie de l'ensemble, d'où l'apparition entre les
plaques d'une « force de Casimir » inversement proportionnelle à la puissance 4 de
leur distance (1/d4). Cette force a été mesurée avec des résultats conformes à la
théorie.
Fluctuations d'énergie cinétique et de l'espace-temps
Les fluctuations du vide dues au principe d'incertitude ne concernent pas que des
paires particule-antiparticule. Elles peuvent aussi générer des paires où l'une des
particules a une énergie cinétique positive et l'autre une énergie négative
correspondant au "trou d'énergie" laissé par l'apparition de la première.
Les particules d'une telle paire peuvent s'annihiler si elles se rencontrent. Mais si la
particule d'énergie positive est générée près de l'horizon d'un trou noir à l'extérieur
de celui-ci, alors que la particule d'énergie négative est générée à l'intérieur, la
240
première peut s'éloigner du trou noir alors que la seconde, piégée par l'horizon,
retombe dans le trou. Pour un observateur extérieur à l'horizon, tout se passe
comme si le trou noir a rayonné une particule et perdu la masse correspondante, la
particule d'énergie négative additionnant celle-ci algébriquement à celle du trou : un
trou noir "s'évapore" !
Enfin, le phénomène des fluctuations quantiques peut aussi affecter l'espace-temps
relativiste lui-même, l'horizon ayant une très forte courbure relativiste. Cela explique
l'attraction des particules d'énergie négative à l'intérieur de l'horizon par le trou noir,
qui les voit positives.
Conclusions
Contrairement à notre intuition, le vide dans et autour des atomes et autres particules
est le siège de champs quantiques et plein d'énergie. En outre, des fluctuations
quantiques peuvent faire brièvement varier l'énergie en un point par « emprunts » et
« restitutions » ; elles peuvent aussi faire apparaître des champs de force.
La fluctuation quantique est un exemple d'instabilité de l'énergie, instabilité à ne pas
confondre avec du hasard : nous avons vu qu'il s'agit de l'instabilité d'un couple de
variables, pas du choix d'une valeur, bien que les deux entraînent l'imprédictibilité.
Lorsqu'une fluctuation d'énergie se produit spontanément, c'est-à-dire en l'absence
d'excitation (donc de cause) externe, on ne peut prédire :

Ni les endroits où apparaîtront simultanément la particule et l'antiparticule ;

Ni l'instant de cette apparition ;

Ni la quantité d'énergie qui sera empruntée.
Fluctuations et conservation de la densité moyenne d'énergie
En l'absence de perturbation extérieure, une fluctuation en un point donné de
l'espace qui fait apparaître une paire de particules virtuelles à un instant imprévisible
y conserve la densité moyenne d'énergie.
Une violation temporaire du deuxième principe de la thermodynamique
A l'occasion d'une fluctuation quantique, il y a violation temporaire du deuxième
principe de la thermodynamique : l'entropie commence par décroître lorsque la paire
particule-antiparticule est créée, puis elle croît et revient à sa valeur initiale lorsqu'elle
se transforme en énergie.
3.5.9.4.2
Champ et boson de Higgs
Il y a deux sortes de masses [110] :

La masse gravitationnelle, qui intervient dans l'attraction de deux corps pesants,
comme celle d'un objet par la Terre ;

La masse d'inertie, qui intervient dans la nécessité d'une force pour changer le
mouvement uniforme (ou l'immobilité) d'un corps en lui communiquant une
accélération.
Pour un même objet ces deux masses s'expriment dans la même unité, le
kilogramme, et 1 "kg gravitationnel" = 1 "kg inertie".
241
Le champ de force de Higgs, présent dans tout l'espace - de l'échelle atomique à
l'échelle astronomique - agit comme un frein sur la masse d'inertie : pour provoquer
une accélération donnée, la force nécessaire est proportionnelle à la masse de
l'objet : c'est la 2ème loi de Newton [110]. C'est l'existence du champ de Higgs qui
explique la masse d'inertie des corps pesants ; si le champ de Higgs disparaissait
dans une certaine région, les particules fondamentales (quarks et leptons) en
mouvement y perdraient la partie de leur poids qui ne correspond pas aux
interactions forte et faible. (Voir [18] et [59])
En physique quantique, la particule de l'interaction entre champ de Higgs et corps
pesants (leptons et quarks) est appelée boson de Higgs et sa masse est proche de
125 GeV c-2, c'est-à-dire environ 134 fois celle du proton au repos.
3.5.9.4.3
Distance, temps, densité et masse de Planck
La notion d'incertitude (non-définition, instabilité, fluctuation) de Heisenberg
s'applique aussi à l'incertitude sur une distance dp, en dessous de laquelle l'espace
physique lui-même ne peut plus être considéré comme continu et nos lois physiques
(y compris celles de la Mécanique quantique) ne s'appliquent plus. Cette distance
minimum est appelée « distance de Planck » dp et vaut :
𝑑𝑝 = √
𝐺
𝑐3
= 1.6 .10-35 m
Au début de l'Univers, avant le Big Bang, la densité d'énergie cinétique (température)
était si élevée qu'elle pouvait faire se rapprocher des particules à une distance
inférieure à la distance de Planck. Mais l'Univers a immédiatement commencé à se
dilater par inflation (en créant littéralement de l'espace et de la matière-énergie, à
densité constante), puis plus lentement par expansion en diluant son énergie. Et
l'expansion continuant encore de nos jours, il n'y a plus jamais eu d'endroit où la
densité d'énergie était suffisante pour contraindre des particules à s'approcher plus
près que dP… sauf dans les trous noirs.
A des distances de l'ordre de celle de Planck et des densités d'énergie suffisantes
pour la création d'un trou noir, la Mécanique quantique et la Relativité Générale
s'appliqueraient toutes deux… si on en avait une synthèse, qu'on n'a pas hélas.
Aucune distance inférieure à d p n'a de sens pour un phénomène physique. Le
postulat de continuité de l'espace n'est pas vrai pour des distances inférieures.
Au début de l'Univers, avant le Big Bang, il y a aussi eu une durée pendant laquelle
la densité d'énergie permettait à toutes les particules de fusionner en s'approchant à
une distance inférieure à dP. Pendant cette durée nos lois physiques actuelles ne
s'appliquaient pas. Cette durée est le « temps de Planck » tP mis par la lumière pour
parcourir la distance de Planck dP. Il vaut dP/c :
242
ℏ𝐺
𝑡𝑝 = √
= 0.54 .10-43 s
𝑐5
Au temps de Planck tP l'Univers était extraordinairement dense, sa densité étant
appelée « densité de Planck » DP et valant :
𝐷𝑝 =
𝑐5
= 5.1 .1096 kg/m3
ℏG²
Où G est la constante universelle de gravitation G = 6.67 .10-11 Nm2/kg2.
Cette densité est colossale : elle correspond approximativement à celle résultant de
la compression d'une centaine de galaxies dans le volume d'un noyau atomique !
La « masse de Planck » mP, matière-énergie contenue dans un cube de dP de côté,
est donnée par la formule :
ℏc
mp = √
G
= 2.2 .10-8 kg
Un objet de masse mP et de dimension dP serait un trou noir quantique de diamètre
dP. Or ce diamètre est proche de la longueur d'onde de Compton de l'objet [134],
distance en dessous de laquelle une particule est « floue », c'est-à-dire de position et
dimension mal définies au sens Mécanique quantique.
En conclusion : lorsque l'espace, le temps ou l'énergie sont inférieurs à leur « valeur
de Planck », ou qu'un objet a une dimension proche de sa longueur d'onde de
Compton :

Il est impossible de considérer comme continus l'espace, le temps et l'énergie :
ils sont discontinus et quantifiés (chaque valeur est multiple d'un minimum
appelé quantum) ;

On ne peut même pas appliquer les lois de la Mécanique quantique, à part le
principe d'incertitude de Heisenberg ;

Les lois physiques du déterminisme scientifique sont alors erronées, Mécanique
quantique et la Relativité Générale ne s'appliquent plus ; il en faudrait une
synthèse que nous n'avons pas encore.
Aucune causalité ne peut donc remonter aujourd'hui au-delà du temps de Planck
et la notion philosophique de « cause ultime » n'a pas de sens au-delà.[17]
Remarque
La distance, le temps, la densité et la masse de Planck s'expriment en fonction des
trois constantes fondamentales de l'Univers : h, G et c.
243
3.5.9.4.4
Le vide de l'espace cosmique
A l'autre bout de l'échelle des distances, le « vide » de l'espace cosmique contient au
total bien plus que la matière que nous voyons dans toutes les étoiles, planètes,
astéroïdes, poussières et gaz à faible pression, même si on y ajoute l'énergie des
divers rayonnements qui le parcourent (addition justifiée par l'équivalence masseénergie représentée par la formule E = mc² de la Relativité). En ajoutant la masse
des trous noirs que nous ne voyons pas, mais dont nous voyons les effets
gravitationnels (qui montrent que la masse de certains peut dépasser un milliard de
fois celle du Soleil), nous sommes toujours loin du compte. La masse totale des
corps célestes lumineux ou sombres que nous connaissons, avec ses quelque 400
milliards de galaxies, représente seulement environ 4.9 % de la masse de l'Univers.
L'étude des mouvements des galaxies, de leurs satellites et des amas d'étoiles
qui les entourent montre qu'il existe nécessairement, dans chaque galaxie et
dans son voisinage, une masse énorme que nous ne voyons pas, parce qu'elle
n'émet pas de lumière et n'en absorbe pas. Cette masse représente environ 5
fois celle de la matière-énergie visible dans l'Univers, c'est-à-dire environ 27 %
de l'énergie totale ; on l'appelle « matière sombre », « matière noire » ou
« matière cachée » (dark matter).
Dans l'Univers primitif il y avait des zones à peu près sphériques de matière
sombre appelées « halos », au centre desquelles les galaxies que nous voyons
se sont formées. Ces halos existent toujours, et leur masse importante explique
la vitesse de rotation étonnamment élevée des amas et galaxies satellites des
galaxies principales.
3.5.9.4.5
Expansion de l'Univers visible
Les mesures précises effectuées sur les distances et vitesses des galaxies lointaines
montrent que l'Univers visible est en expansion, son rayon augmentant à la vitesse
de la lumière, c [313]. Depuis le moment où il avait 380 000 ans jusqu'à nos jours
son rayon a été multiplié par environ 1000, et il continue d'augmenter. Après les
premiers 8 ou 9 milliards d'années environ, où l'expansion ralentissait (c'est-à-dire
depuis 5 milliards d'années) l'expansion est de plus en plus rapide [290]. Ainsi, nous
recevons aujourd'hui la lumière d'astres situés à 23 milliards d'années-lumière dont
la lumière est partie il y a 12 milliards d'années [314] et [111].
Il ne faut cependant pas croire que l'Univers grandit en prenant de la place dans
un Univers englobant vide : il grandit par accroissement de ses dimensions ; chacun
de ses points s'éloigne de tous ses autres points. Comme l'inflation qui l'a précédé, le
Big Bang ne fut pas une explosion dans l'espace, mais une explosion de l'espace,
sans point central [118].
Il y a dans l'Univers deux forces qui s'opposent : la gravitation, qui tend à
rapprocher les galaxies et produit sur Terre l'attraction de la pesanteur, et une
mystérieuse pression négative, gravitation négative qui tend à les éloigner de plus en
plus vite en dilatant l'espace lui-même. Cette gravitation négative est attribuée à une
« énergie sombre » ou « énergie noire » (dark energy), dont on ne sait rien à part
qu'elle existe puisque ses effets existent et satisfont la Relativité Générale ; et elle
représente environ 68 % de la masse-énergie totale de l'Univers.
244
Schéma de l'expansion de l'Univers d'après [267] montrant les influences opposées de
l'énergie sombre et de la gravitation Le temps depuis le Big Bang croît selon l'axe vertical
Gravitation contre expansion
La gravitation, qui a pour effet la concentration de la matière pour former des étoiles
et des trous noirs, n'empêche nullement l'expansion de l'espace. Celle-ci continue
depuis le Big Bang, accélérée par l'énergie sombre, qui éloigne les galaxies les unes
des autres de plus en plus vite. La galaxie d'Andromède (notre voisine, à 2.5 millions
d'années-lumière) se rapproche de nous sous l'influence de la gravitation, alors que
des galaxies très lointaines (1 milliard d'années-lumière et plus) s'éloignent sous
l'influence de l'expansion de l'Univers. Aux très grandes distances, la gravitation
négative due à l'énergie sombre est prépondérante par rapport à la gravitation [118]
et accélère l'expansion.
Pendant les 7 à 8 premiers milliards d'années de l'Univers la pression d'expansion a
diminué avec le temps sous l'effet de la gravitation, rendant cette expansion de
moins en moins rapide. Pendant ce temps-là, la pression négative accélératrice de
l'énergie noire augmentait automatiquement avec le volume de l'espace ; elle a fini
par inverser le sens de variation de l'expansion, qui depuis s'accélère.
Les forces de gravitation dues à la matière baryonique et à la matière noire
conservent la forme des galaxies (dimension : 100 000 années-lumière) et celle des
amas de galaxies (10 millions d'années-lumière) : à leur échelle l'expansion est
245
négligeable. Mais l'énorme volume intergalactique produit assez de pression
négative pour que l'expansion de l'Univers dans son ensemble accélère.
La courbure de l'Univers due aux masses à l'origine de la gravitation est sans rapport
avec son expansion [269], les forces correspondantes étant distinctes. La croissance
de l'entropie conformément au 2 e principe de la thermodynamique [25] se produit à la
fois lorsque la gravitation concentre la matière et lorsque l'expansion de l'espace la
dilue, ces deux phénomènes indépendants respectant tous deux la
thermodynamique.
Il faut alors expliquer pourquoi l'expansion de l'Univers ne fait pas éclater en mille
morceaux la matière et les structures cosmiques comme le système solaire et la
galaxie. La raison est simple : les 4 forces du modèle standard [18] responsables de
la cohésion de la matière (atomes, molécules et structures cristallines) sont
beaucoup plus fortes que la force de l'expansion ; même la gravitation, la plus faible
de ces 4 forces (qui explique la cohésion des systèmes planétaires, des galaxies et
des amas de galaxies) est bien plus forte qu'elle. Cette dernière ne joue donc que
loin de toute matière et matière sombre, c'est-à-dire entre des amas de galaxies, sur
des distances de l'ordre d'au moins 100 millions d'années-lumière.
3.5.9.5
Conclusions sur les symétries et lois de conservation
Les quatre types d'interaction [18] conservent :

l'énergie ;

la quantité de mouvement ou l'impulsion ;

le moment cinétique ;

les charges électrique, baryonique et leptonique ;

le spin [22].
246
La table ci-dessous indique l'origine physique des lois de conservation :
Lois de conservation
Origines physiques
Energie d'un système isolé
Homogénéité du temps
(invariance par translation dans le temps)
Quantité de mouvement ou
impulsion d'un système isolé
Homogénéité de l'espace
(invariance par translation dans l'espace)
Moment cinétique
d'un système isolé
Isotropie de l'espace
(invariance par rotation)
Invariance par le couple
de symétries CP
Symétrie gauche-droite de l'espace
Invariance par la symétrie T
Symétrie du temps en changeant
dans les équations t en -t
Charge électrique
d'un système isolé
Inconnue
Charge baryonique
d'un système isolé
Inconnue
Charge leptonique
d'un système isolé
Inconnue
Etrangeté (propriété de
certaines particules)
Inconnue
Origine physique des lois de conservation
La discussion précédente des lois de symétrie et de conservation montre que le
déterminisme de la nature a de nombreux comportements qui sont tout sauf évidents
ou intuitifs. Certains comportements sont inexpliqués ; on ne sait pas, par exemple,
pourquoi l'Univers est fait exclusivement de matière et ne comprend pas
d'antimatière, nos théories prédisant la création de masses égales de matière et
d'antimatière. Et nous avons vu que le principe d'incertitude permet des violations
locales de très courte durée de la conservation de l'énergie.
3.5.10 5e extension du déterminisme : complexité, imprévisibilité, calculabilité
Certains phénomènes physiques semblent n'obéir à aucune loi simple, ce qui fait
paraître imprévisible leur évolution. Voici des exemples.
3.5.10.1
Combinaison de nombreux phénomènes déterministes
Exemple 1 : mouvement brownien
Les molécules d'un gaz n'arrêtent pas de bouger. Leur agitation, appelée
mouvement brownien, résulte de la température du gaz. A la température absolue T
247
[121] chaque molécule a une énergie cinétique moyenne de 3/2 kT, où k est la
constante de Boltzmann [122], k = 1.38066 .10-23 joule par degré Kelvin. Nous avons
déjà vu cela.
En bougeant sans cesse, chacune indépendamment des autres, les molécules
s'entrechoquent. Leur nombre étant très grand (2.7 1025 molécules/m3 à la pression
atmosphérique normale) le nombre de chocs par seconde dans un tel volume est
colossal. La trajectoire d'une molécule particulière est donc parfaitement
imprévisible, bien qu'entre deux chocs son mouvement soit rectiligne et uniforme, et
que les chocs aient lieu sans perte d'énergie. Si on perce un petit trou dans la paroi
de l'enceinte contenant le gaz, la prévision de la première molécule qui sortira par ce
trou est impossible.
Exemple 2 : forme des flocons de neige
Un flocon de neige résulte de la formation de un ou plusieurs cristaux de glace à
symétrie hexagonale. Du fait du nombre de variables qui interviennent, la complexité
du phénomène de formation de ces cristaux est telle qu'ils peuvent prendre des
dizaines de formes différentes [288]. Le nombre de combinaisons de ces formes en
flocons est si grand qu'on peut considérer qu'un flocon donné a une forme unique, ou
qu'on ne retrouvera peut-être un flocon identique que dans cent ans. Les
phénomènes physiques intervenant dans la formation des cristaux de glace et leur
regroupement en flocons sont déterministes et assez bien connus. Pourtant on ne
peut jamais prévoir quelle forme exacte de flocon se formera dans des conditions
données, même lorsque celles-ci sont créées avec précision en laboratoire.
Ces exemples sont généralisables : chaque fois qu'un grand nombre de
phénomènes déterministes interagissent, l'évolution de l'un quelconque de ces
phénomènes est imprévisible, de même que l'évolution du résultat de leur interaction.
Le déterminisme n'est pas en cause, l'imprévisibilité du résultat provient de la seule
multitude des interactions. Pour rendre compte de cette cause naturelle
d'imprévisibilité, le déterminisme doit être complété par la précision que l'action
simultanée de trop nombreux phénomènes déterministes (au sens traditionnel)
donne un résultat impossible à prédire ou extrêmement difficile à calculer.
Le résultat d'un grand nombre de phénomènes déterministes
simultanés est imprévisible parce que trop difficile à calculer.
Cependant, on peut souvent représenter la situation d'ensemble (c'est-à-dire
statistique) des variables d'un système (comme sa température moyenne, sa
pression moyenne, et les proportions des corps qui le composent s'il s'agit d'une
solution chimique) par celle de la densité de probabilité [28] d'apparition de son point
représentatif dans un espace des phases rapporté à ces variables. A chaque instant
t, par exemple, on saura pour chaque volume élémentaire au voisinage d'un point de
cet espace la probabilité qu'il a d'être atteint. Pour un ensemble donné de valeurs
248
des variables, on pourra connaître l'évolution de sa probabilité d'existence dans le
temps. Cette approche probabiliste utilisant l'espace des phases diffère de
l'approche traditionnelle basée sur des trajectoires dans l'espace géométrique ; elle a
été étudiée notamment par Ilya Prigogine, qui l'a décrite dans [26] ; elle convient
aussi aux systèmes dont l'évolution est irréversible, contrairement à l'approche basée
sur les trajectoires.
3.5.10.1.1 Mécanique statistique
Cette branche de la physique applique les méthodes et outils statistiques aux lois de
la Mécanique classique et à celles de la Mécanique quantique. Elle le fait pour
expliquer et prédire les propriétés mesurables de systèmes macroscopiques à partir
des propriétés et lois d'évolution de leurs composants microscopiques.
Exemple : la Mécanique statistique explique et calcule l'énergie thermique à
partir de l'énergie de particules atomiques animées de mouvements
désordonnés ; elle déduit la température de l'énergie d'ensemble de ces
particules.
Pour éviter de calculer à partir des propriétés individuelles des milliards de particules
d'un système, la Mécanique statistique utilise des lois de probabilité pour trouver les
valeurs moyennes pour des particules de même type. Ainsi, elle interprète l'énergie
cinétique moyenne des molécules sous forme de température moyenne du système,
et déduit les lois de la thermodynamique [25] de telles propriétés statistiques. Elle
contourne donc la difficulté de calculer séparément l'évolution dans le temps
(position, vitesse) de chaque molécule en ne s'intéressant qu'aux moyennes des
vitesses dans leur population.
3.5.10.2
Déterminisme + complexité = imprévisibilité
Nous avons déjà vu que l'effet d'un grand nombre de processus déterministes
simultanés régis par une même loi peut rendre le résultat de chacun d'eux
imprévisible en pratique. Il n'est donc pas étonnant que l'effet global d'un grand
nombre de processus déterministes simultanés régis par des lois distinctes soit en
général également imprévisible. Dans les deux cas, l'imprévisibilité est d'autant plus
grande que les processus sont nombreux et interagissent davantage.
Ce phénomène d'imprévisibilité se présente aussi dans les logiciels extrêmement
complexes comme les systèmes d'exploitation d'ordinateurs ou les logiciels de
simulation de vol, ainsi que dans les processus physiologiques.
Exemples : un système d'exploitation de la famille Windows exécute en général des
centaines de threads, processus qui se déroulent en parallèle en se démarrant ou
s'arrêtant l'un l'autre, en s'envoyant des messages, en échangeant des données, en
s'attendant ou en se donnant rendez-vous dans certaines circonstances, etc. C'est
ainsi que pendant que j'écris ce texte avec WORD 2007 64 bits sous Vista Edition
Intégrale 64 bits, mon système d'exploitation exécute 792 threads en parallèle,
appartenant à 58 processus distincts.
De son côté, un corps humain a des centaines de mécanismes indépendants ou
interdépendants, régis par le logiciel hypercomplexe qu'est le génome interprété par
la machinerie cellulaire, ainsi que par le cerveau et ses 100 milliards de neurones.
249
Le comportement de ces systèmes complexes nous paraît cependant d'autant plus
prévisible que les circonstances se reproduisent fréquemment. Leur réponse à un
événement fréquent a été observée si souvent qu'elle est devenue prévisible par
habitude. Je sais parfaitement déplacer un fichier d'un répertoire à un autre de mon
PC, et n'ai jamais de surprise en constatant son comportement lorsque je fais un
« glisser-déposer » de l'icône du fichier avec la souris. Je sais aussi prévoir la
réponse de mon organisme à des situations particulières comme la pose de ma main
sur un objet trop chaud, qui provoque une sensation de brûlure.
Mais des circonstances ou événements rares entraînent des comportements
imprévisibles et surprenants d'un système complexe. Exemple : un message reçu
par Internet, qui provoque un débordement de buffer (zone mémoire tampon) dans
mon PC en exploitant un défaut de protection d'un objet logiciel du système
d'exploitation, peut se transformer en logiciel de prise de contrôle qui asservira mon
PC à un autre système, situé à des milliers de kilomètres, pour le faire participer à
des attaques dévastatrices de serveurs bancaires. Si les concepteurs du système
d'exploitation de mon PC avaient pu prévoir ce type d'attaque, ils auraient mis en
place les protections nécessaires. Mais comme il existe des attaques auxquelles ils
n'ont pas pensé, le message Internet en question provoque une réaction imprévue.
Conclusion : bien que tous les logiciels aient des algorithmes déterministes, une
combinaison complexe de logiciels et de circonstances (événements et données)
peut avoir un effet imprévisible, et même difficile à expliquer après coup connaissant
ses effets. Tout se passe alors comme si la complexité d'un système parfaitement
déterministe l'avait rendu imprévisible, le faisant apparaître comme non déterministe
aux yeux de personnes qui (hélas !) ne séparent pas déterminisme et prédictibilité.
De même, il y a des cas où un médecin ne sait pas diagnostiquer le mal de son
malade. Certaines douleurs, par exemple, peuvent demeurer inexpliquées malgré
d'innombrables examens et la prise de médicaments. Le corps humain est non
seulement complexe, mais ses processus sont loin d'être aussi bien connus que les
algorithmes des logiciels ; et la complexité de l'esprit est encore plus grande [51].
En résumé, la complexité d'un système, et des circonstances ou enchaînements de
circonstances rares, peuvent le rendre imprévisible même si tous ses processus sont
déterministes.
3.5.10.3
Modélisation des systèmes complexes, notamment ceux du vivant
Jusqu'à ce point de l'exposé nous avons considéré une situation physique comme
cause d'une évolution déterministe prévisible. C'est là une simplification qui ne
convient pas à des systèmes vraiment complexes comme un corps humain, son
psychisme, ou l'économie d'un pays. Dans un tel système, une situation à un instant
donné prend en compte des milliers de processus se déroulant en même temps,
certains interagissant avec d'autres. Dans le corps humain, par exemple, le génome
contrôle des milliers de réactions chimiques participant au fonctionnement de tous
les organes. Dans un cerveau humain, un grand nombre de pensées se déroulent en
même temps dans le subconscient, en plus de la pensée consciente [268].
Le nombre et la variété des processus qu'on rencontre dans des systèmes comme
les êtres vivants fait qu'en général on ne les connaît pas assez pour en décrire un
250
modèle [51] ; l'absence de modèle rend alors la prévision de leur comportement
impossible.
Un système modélisable ne comprend que des processus à logique connue et
descriptible en langage informatique. Le nombre de processus se déroulant en
parallèle ne pose pas problème, dans la mesure où un ordinateur moderne peut
exécuter des logiciels simulant des milliers de processus simultanés. La
connaissance d'un processus implique celle de ses variables d'entrée (qu'il reçoit de
l'extérieur du système ou d'autres processus), de ses variables de sortie (qu'il fournit
à l'extérieur ou à d'autres processus), de la logique de réponse aux diverses
sollicitations avec les temps de réponse correspondants, etc.
Un modèle informatique à processus simultanés multiples se comporte comme
autant d'ordinateurs indépendants, calculant en même temps et capables de
communiquer entre eux et avec l'extérieur. Un processus peut en lancer ou en
arrêter un autre, échanger avec lui des messages, attendre un événement venant de
l'extérieur ou d'un autre processus, exécuter un calcul en fonction de données
reçues ou trouvées en mémoire, tenir compte du temps pour aller à la même vitesse
que la réalité qu'il simule, etc. Un processus peut en coordonner d'autres. Il peut
aussi leur fournir des services comme la reprise sur incident, la gestion des files
d'attente de messages, la journalisation des événements du système à des fins de
traçabilité, la protection contre des intrusions, les télécommunications, etc.
3.5.10.3.1 Des avancées très prometteuses en matière de modélisation
En pratique, on simule un ensemble de processus simultanés qui interagissent avec
un logiciel orienté objets comme C++, où chaque processus est un objet
indépendant. Les divers objets peuvent être exécutés simultanément dans un même
processeur d'ordinateur en utilisant des tâches et/ou des threads simultanés ; on
peut aussi les répartir entre plusieurs ordinateurs qui communiquent en réseau, pour
ajouter leurs puissances de calcul. Cette architecture matérielle-logicielle permet
d'exécuter simultanément des dizaines de milliers de processus, donc d'émuler le
fonctionnement de systèmes extrêmement complexes.
Modélisation de processus cellulaires à partir de la biologie moléculaire déterministe
L'article [279] rend compte de la simulation de toutes les fonctions d'un
microorganisme dont le génome comprend 525 gènes, sur 128 ordinateurs tournant
en parallèle. A partir de la connaissance des mécanismes individuels de niveau
moléculaire, y compris ceux de l'ADN, de l'ARN, des protéines et des métabolites, on
a simulé ainsi tous les événements et processus de la vie de ce microorganisme, un
microbe pathogène autonome.
Les conséquences de cette possibilité de modélisation sont colossales :

On peut ainsi désormais remplacer des tests biologiques de laboratoire par des
simulations informatiques, processus reproductible, plus rapide et moins
coûteux ; la compréhension des comportements du vivant et la mise au point de
médicaments efficaces en sera considérablement facilitée.

On a une preuve matérielle de la possibilité, avec une grande puissance de
calcul et une architecture logicielle à processus parallèles, de simuler tous les
processus du vivant, des fonctions cellulaires de bas niveau à celles de la
251
pensée, en décomposant chacune en niveaux hiérarchiques dont le plus bas est
celui de la biologie moléculaire, complètement déterministe statistique. Avec le
temps et la croissance de la puissance informatique disponible, on pourra
constituer une bibliothèque de fonctions et comportements de base du vivant,
sur laquelle on basera la compréhension de comportements de plus en plus
complexes.
Des modèles si fiables qu'on peut leur confier la vie humaine
On sait faire des modèles informatiques complexes si fiables qu'on peut leur confier
la vie humaine ; c'est le cas, par exemple, des commandes électriques de vol des
avions modernes et de leurs systèmes de pilotage et d'atterrissage automatique sans
visibilité. Le danger, alors, vient d'un défaut de spécification où l'homme aurait oublié
de prévoir certains événements ou situations, et n'aurait pas introduit dans le modèle
la logique nécessaire pour y répondre. On résout ce problème en faisant de
nombreux tests – certains avec des valeurs aléatoires de variables initiales (comme
dans la méthode de Monte-Carlo avec algorithme Metropolis), d'autres en
accumulant de l'expérience ; par souci de sécurité on permet toujours à un homme
de reprendre le contrôle en cas d'urgence.
La modélisation informatique permet, par exemple, de reconstituer des phénomènes
astronomiques ayant duré des centaines de milliers d'années comme la formation
d'un système planétaire à partir de gaz et poussières interstellaires. Elle le permet
parce que les lois de la dynamique sont connues, ainsi que les paramètres à fournir
au départ de la simulation.
Il reste beaucoup à faire
Notre connaissance actuelle de l'économie ne nous permet de réaliser que des
modèles trop grossiers pour prévoir les crises économiques ou même simplement
financières, même lorsque la situation politique est supposée stable (détails : [301]).
3.5.10.4
Analyse statistique de systèmes complexes
Il est fréquent que nous n'ayons pas besoin des niveaux de compréhension et de
précision fournis par un modèle à processus déterministes pour résoudre un
problème. C'est ainsi que, pour soigner certaines maladies, il n'est pas nécessaire
d'avoir un modèle de certaines fonctions vitales de l'homme ; il suffit d'avoir le bon
médicament ou la bonne association de médicaments. On peut donc souvent se
contenter d'étudier la réponse d'un système complexe à certaines actions ou
circonstances sans chercher vraiment à le comprendre.
On fait alors des expériences (ou des statistiques sur une population) où l'on fait
varier certains paramètres en notant à chaque fois la réponse du système. C'est
ainsi, par exemple, qu'on teste sous un certain climat et dans un certain type de sol
le rendement de diverses variétés d'une céréale alimentaire, en présence d'apports
de divers engrais avec divers dosages. L'organisation des expériences doit alors
produire le plus possible d'informations avec le minimum d'expériences ou la
population testée la plus réduite possible. On utilise pour cela des méthodes
statistiques dont nous nous contenterons ici d'évoquer des noms : analyse de
variance, plans factoriels, carrés latins, analyse de régression, corrélations, etc.
252
Ces méthodes apportent des informations sur la réponse à certaines combinaisons
de valeurs de certaines variables, sur le niveau de confiance qu'on peut avoir dans
ces informations, et sur l'influence probable d'autres variables non prises en compte.
Ces méthodes permettent même parfois de trouver la combinaison de valeurs de
paramètres qui maximise une fonction économique, c'est-à-dire les valeurs de
variables qui conduisent à un optimum. C'est ainsi que j'ai fait pendant quatre ans
des expériences permettant de trouver les paramètres de conception, d'affûtage et
d'utilisation de forets qui maximisent la vitesse de perçage dans divers types de fonte
ou d'acier, tout en garantissant une qualité géométrique de trou et une durée de vie
imposée entre affûtages ; les résultats ont été spectaculaires et l'industrie automobile
française en a profité.
3.5.10.5
Complexité et décisions médicales
Le domaine de la médecine comprend de nombreux cas de situation complexe. Les
connaissances disponibles sont partielles et incertaines :

Partielles parce qu'on ne connaît qu'une partie des phénomènes qui
interviennent ;

Et incertaines parce que les lois d'évolution qui s'appliquent sont du type "avec
ce médicament on observe 70 % de guérisons à 5 ans, et sans ce médicament
on observe 80 % de décès dans les 2 ans."
Dans de tels cas il n'existe pas de décision sans risque, alors que – s'il s'agit d'un
malade – il risque parfois sa vie. On peut envisager des raisonnements probabilistes
si des statistiques sur une population suffisante sont disponibles et significatives.
Mais si ce n'est pas le cas, par exemple parce qu'il s'agit d'une maladie rare où les
statistiques portent sur une population réduite, que faire ?
Les raisonnements probabilistes consistent à envisager toutes les décisions
possibles et à évaluer expérimentalement pour chacune la probabilité de succès,
ainsi que le bénéfice et les effets secondaires escomptables (exemple : nombre
d'années de survie, pathologies pendant ce temps-là, etc.). On résume les
conclusions dans un tableau, qu'elles soient ou non chiffrées et quelle que soit leur
précision, on discute entre médecins et si possible avec le patient, et on décide.
Dans des cas moins graves ou moins urgents, les médecins appliquent souvent un
raisonnement basé sur des facteurs de risque et des facteurs de protection.
Facteur de risque
On appelle facteur de risque un facteur qui prédispose certainement à la maladie
concernée. Exemple : fumer est un facteur de risque dans le cancer du poumon. Un
facteur de risque accroît le risque de développer la maladie, mais il ne suffit pas pour
la déclencher : il y a de gros fumeurs morts à un âge avancé sans avoir souffert de
cancer du poumon (exemple : Winston Churchill) ; mais des statistiques sur une
population importante montrent que les gros fumeurs ont bien plus souvent un
cancer du poumon que les non-fumeurs.
Une circonstance est un facteur de risque lorsque d'autres facteurs interviennent,
qu'ils soient connus ou non, et qu'on dispose de statistiques significatives ou
253
seulement de corrélations. Un cas particulier important est celui où un facteur de
risque A ne joue qu'en présence d'un autre facteur de risque, B.

Si A exige B, il peut se faire qu'en réalité le risque de développer la maladie n'est
pas associé à A mais seulement à B, et que le plus souvent quand B est présent
A l'est aussi, d'où la tendance à penser que A est un facteur de risque. Il faut
alors des études sérieuses pour déterminer les rôles respectifs de A et B.

Si A exige B, il peut aussi arriver qu'il y ait une interaction entre A et B. Par
exemple, B renforce l'effet de A lorsqu'il est présent au-delà d'une certaine limite.
D'un point de vue quantitatif, on associe à un facteur de risque, chaque fois que c'est
possible, un taux de risque ou risque relatif qui est un coefficient multiplicateur de la
probabilité que le facteur de risque induise la maladie. On dit, par exemple, qu'une
personne qui présente ce facteur de risque a 15 % de chances de plus que la
population moyenne de développer la maladie avant 50 ans.
Facteur de protection
Il est fréquent qu'on sache qu'un facteur de risque joue moins en présence d'un autre
facteur, appelé pour cette raison facteur de protection. Un facteur de protection n'a
pas en lui-même de rôle bénéfique, il ne joue que pour atténuer le risque d'une
pathologie ou l'effet d'un de ses facteurs de risque. Cela peut se produire de deux
manières :

Soit le facteur de protection est défini comme la négation du facteur de risque.
Affirmer, alors, la présence du facteur de protection revient à nier celle du facteur
de risque ou à affirmer que sur une échelle continue de risque on est plutôt du
côté « protégé » ou plutôt du côté « à risque ». Exemple : un fort taux de
cholestérol est un facteur de risque d'obstruction des artères coronaires, alors
qu'un faible taux de cholestérol est un facteur de protection pour cette
pathologie.

Soit le facteur de protection est défini comme une cause qui s'oppose à la
pathologie ou à un de ses facteurs de risque, qui l'empêche de jouer ou diminue
son effet. Exemple : l'acquisition d'une immunité par vaccination empêche le plus
souvent de développer la maladie.
Conclusions
Cette approche me paraît correcte, compte tenu de l'état des connaissances en
médecine. Mais je constate qu'à force de réfléchir et de décider dans un domaine où
les connaissances manquent tellement, certains médecins que je connais ont
souvent des raisonnements peu rigoureux : désaccords entre eux sur les faits et sur
les méthodes, prises de position idéologiques et manque d'ouverture d'esprit. Je
pense que l'enseignement de la médecine et les pratiques en matière de publication
ne prédisposent pas assez à la rigueur intellectuelle, exactement comme ma
formation en sciences exactes ne me prédispose pas au sens de l'humain.
3.5.10.6
Résultats remarquables de certains processus calculables
3.5.10.6.1 Algorithme de calcul de Pi - Suite aléatoire de nombres entiers
(Définition d'un algorithme : voir [69])
254
Considérons la suite des décimales du nombre Pi ( = 3.1415926535…), nombre
parfaitement calculable dont on connaît, paraît-il, les 200 premiers milliards de
décimales. D'après les tests d'autocorrélation effectués, la représentation décimale
connue de Pi ne présente aucune régularité permettant de prédire une décimale
connaissant les précédentes ; c'est une raison de la considérer comme aléatoire.
Exemple : la formule de calcul de Pi donnée par John Machin au XVIIIe siècle est :

x 2 k 1
1
1
où Arctg x   (1) k
  16 Arctg  4 Arctg
2k  1
5
239
k 0
On peut aussi calculer /4 en sommant directement la série Arctg 1 :
𝜋
1 1 1 1 1
= 1− + − + −
+⋯
4
3 5 7 9 11
Comme il n'existe pas de logiciel de calcul de précision infinie, mais seulement des
logiciels garantissant une précision de N chiffres dans chaque opération (où N peut
atteindre des milliers de décimales), le calcul des termes d'une série comme Arctgx a
une précision limitée, d'autant plus limitée qu'il faut sommer de nombreux termes.
L'algorithme de calcul de Pi est bien déterministe au sens traditionnel. Son résultat,
le nombre réel , est prévisible avec une approximation qui ne dépend que de la
précision des calculs. Comme la représentation décimale de  ne présente aucune
régularité permettant de prédire une décimale connaissant tout ou partie des
précédentes, on a là un exemple de processus à déroulement déterministe dont
toute représentation numérique du résultat présente des irrégularités imprévisibles.
Cette imprévisibilité existe quelle que soit la base, même si ce n'est pas 10.
En somme, pour tout entier M>0, tout algorithme de calcul de Pi est un générateur de
suites de nombres entiers aléatoires de M chiffres, nombres obtenus en considérant
des « tranches » successives de M chiffres dans la suite (infinie et non périodique)
des décimales de Pi [98].
Le caractère déterministe d'un processus n'entraîne donc pas nécessairement
l'existence d'une représentation de son résultat qui ait une régularité ou une
prévisibilité quelconque : précision, périodicité, symétrie, etc. Nous l'avons déjà vu
plus haut.
Contrairement à une fraction par exemple, dont la suite des décimales est
nécessairement périodique (exemple : 22 divisé par
7 = 3.142857 142857 142857 où la suite de 6 chiffres 142857 se répète
indéfiniment) certains nombres réels comme  ont une représentation décimale
sans périodicité ni loi permettant de prévoir la décimale de rang p connaissant
tout ou partie des décimales précédentes [56].
Conclusion
Lorsqu'une suite de valeurs ou de concepts semble aléatoire parce que nous n'y
trouvons pas de régularité, elle peut résulter d'un phénomène déterministe
255
apériodique comme celui des suites de groupes de M décimales successives de 
générées par un algorithme.
3.5.10.6.2 Dynamique des populations
Dans les études d'évolution d'une population humaine ou animale limitée par la
capacité du milieu à la supporter interviennent parfois des suites de la forme :
xn+1 = axn(1-xn)
où l'indice n repère le temps (par exemple l'année), xn est la valeur (constante ou
moyenne) de la variable x (exemple : effectif de la population) à l'instant n, et a est
une constante.
Par exemple avec a = 4 et x1 = 0.7 cette suite donne des valeurs successives de x
lorsque l'instant n varie de 1 à 251 représentées par le graphique ci-après :
256
Suite des valeurs xn+1 = 4xn(1-xn) où x1 = 0.7 et n varie de 1 à 251
Cet exemple illustre une deuxième catégorie de processus déterministes, dont les
résultats varient de manière erratique bien qu'ils soient prévisibles puisqu'on peut les
calculer. Lorsqu'un expérimentateur trouve une suite de résultats ressemblant à
ceux-là, il est tenté d'en déduire à tort que le phénomène sous-jacent n'est pas
déterministe, mais aléatoire.
257
Le déterminisme d'un phénomène n'est donc pas toujours apparent au vu de son
évolution ou de ses résultats. Dans ces cas-là, si on ne sait pas trouver sa loi par
raisonnement (par exemple en considérant son spectre de fréquences de Fourier et
sa fonction d'autocorrélation) elle peut rester cachée, particulièrement si on ne peut
vérifier si elle donne des évolutions reproductibles.
3.5.10.7
Déterminisme et durée
Le mathématicien anglais Alan Turing a démontré en 1936 qu'il n'existe pas
d'algorithme universel permettant de savoir si un programme (logiciel) donné
s'exécutera ou non en un temps fini. Or si le calcul d'un résultat demande un temps
infini ou très grand, ce résultat ne peut pas être qualifié de calculable, car il arrive
qu'on ne puisse pas le connaître ou en deviner une approximation avant la fin du
calcul.
Un algorithme est un processus déterministe, car on sait exactement ce qu'il fait et il
satisfait aux conditions de la définition du déterminisme scientifique traditionnel. Mais
il peut s'avérer non calculable en pratique si le temps nécessaire pour que son
résultat apparaisse est infini ou plus grand que notre patience [114].
Et comme depuis la démonstration de Turing on ne peut savoir d'avance, en général,
au vu d'un algorithme et de ses données initiales, si son temps d'exécution sera
infini, il faut exécuter le logiciel de l'algorithme et considérer arbitrairement comme
infini un temps qui nous paraît trop long… Pour aller plus loin, il faut si possible
étudier mathématiquement sa vitesse de convergence.
Le déterminisme lui-même, puisqu'il régit l'évolution d'une situation initiale (la cause)
à une situation finale (la conséquence), implique un intervalle de temps
« acceptable » entre ces deux situations.

Un intervalle de temps nul fait qu'on ne parle plus de déterminisme mais de
conséquence logique. On ne peut plus séparer cause et conséquence en tant
que phénomènes, la conséquence est une simple déduction logique de la cause.
Exemple : si la cause du phénomène est "X > 6", la conséquence "X + 1 > 7" est
vraie en même temps et ne constitue pas une évolution.
Voir aussi l'importante discussion "séparabilité/non-séparabilité" plus bas.

Un intervalle de temps infini, ou simplement beaucoup plus long que l'échelle de
temps du phénomène, fait qu'on n'attend plus la conséquence. Parfois on la
découvre des années après.
Exemple : en général le temps de réponse de mon PC est de l'ordre d'une
seconde. Il m'est arrivé plusieurs fois, après une longue minute d'attente, de
considérer qu'il tournait en rond et d'interrompre brutalement le traitement ;
comme ce système exécute environ 1 milliard d'instructions par seconde, je
n'imagine pas qu'une application de bureautique puisse prendre si longtemps
pour traiter une transaction. Parmi la vingtaine d'applications que j'utilisais
jusqu'en 2006 une seule demandait 30 à 40 minutes de traitement, la conversion
des 450 pages d'un de mes livres du format ".doc" de WORD en format ".pdf"
d'Adobe Reader, et après l'avoir interrompue à tort deux fois, j'ai appris à
patienter. Heureusement, depuis la version WORD 2007, ce logiciel de
258
traitement de textes effectue lui-même la conversion de son format natif en
format ".pdf", et le fait en une dizaine de secondes pour le même document.

Un intervalle de temps acceptable a une durée du même ordre que celle que
notre esprit ou la théorie associent à la cause, le résultat attendu ou l'évolution
de l'une à l'autre. L'acceptabilité est un critère subjectif, bien entendu, mais par
quoi pourrait-on le remplacer ?
Exemple : le service public de La Poste doit acheminer une lettre neuf fois sur
dix en 1 jour ouvrable. En considérant qu'une lettre qui n'est pas arrivée au bout
de 3 jours n'est pas partie ou a été perdue, je ne me trompe que rarement.
3.5.10.7.1
Nombres réels et problèmes non calculables
Définitions
Par définition, un nombre réel est dit calculable s'il existe un algorithme permettant
de le calculer en un temps fini. Une racine carrée, par exemple, est calculable.

Un résultat est dit calculable s'il existe un algorithme permettant de l'obtenir en
un nombre fini d'opérations de durée finie (donc en un temps fini). [114]
Tout algorithme mettant en jeu un nombre fini d'étapes de durée finie est donc
calculable ; sa logique est déterministe.

Un ensemble d'entiers E est dit calculable s'il existe un algorithme permettant de
savoir en un nombre fini d'étapes si un entier donné X appartient à E. Il existe
des ensembles d'entiers non calculables, dont un exemple est cité par [91] page
158.
S'il est bien conçu, un algorithme comprend des tests de fin lui permettant de
s'arrêter lorsque le nombre de décimales calculées ou de termes calculés est
suffisant, ou que le temps de calcul a dépassé une certaine durée ; cet arrêt est
indispensable pour que l'algorithme fournisse un résultat, s'il n'en imprime pas une
partie (une des décimales successives ou des termes successifs) à chaque étape.
Nombres réels non calculables
Hélas, il existe des nombres réels non calculables. Un exemple de procédé pour
prouver l'existence d'un tel nombre (sans le calculer) est cité dans [91] page 108 ; ce
nombre a une infinité de décimales telle que sa décimale de rang n est définie
comme prenant la valeur 1 ou la valeur 0 selon que la machine de Turing de rang n
calculant sur le nombre n s'arrête ou non, ce qu'il est impossible de savoir d'avance
au moyen d'un algorithme (impossibilité démontrée par Turing).
J'avoue être pris de vertige quand je songe à un nombre réel (bien nommé, car il
existe vraiment !) qu'on ne peut écrire parce qu'on ne peut le calculer ! Et je ne
suis pas seul : il y a des gens, les intuitionnistes, qui refusent de croire à
l'existence d'un tel nombre.
Voir aussi l'exemple d'onde définie par sa fonction de propagation dont l'amplitude à
l'instant t=0 est calculable et l'amplitude à l'instant t=1 est continue mais non
calculable [115].
259
Conséquence pour le déterminisme
L'existence de nombres réels non calculables - et il y en a une infinité - illustre une
limite de prédictibilité du déterminisme : il y a des algorithmes déterministes qui
prouvent l'existence de quelque chose (ici un nombre) qui ne peut être décrit (sa
représentation n'est pas calculable) à l'exception de propriétés particulières (l'unicité
par exemple, dans le cas de nombres réels). Le déterminisme permet alors de
prévoir l'existence et certaines propriétés, mais pas toutes.
Nous avons défini le déterminisme étendu comme un principe régissant toutes
les lois de la nature. La définition du déterminisme scientifique traditionnel
s'applique aussi aux algorithmes, processus intellectuels qui ne sont pas des
évolutions naturelles ; mais la convergence d'un algorithme en un temps fini et la
régularité d'une suite de résultats qu'il génère ne sont pas nécessairement
prédictibles. Plus généralement, la pensée humaine est imprévisible à partir de
la hiérarchie des phénomènes qui la composent, hiérarchie commençant avec la
génétique et se terminant par les divers niveaux du « logiciel » psychique ; cela
vient, par exemple, de l'effet du subconscient. Nous étudierons cela plus bas.
L'existence de nombres réels non calculables peut sembler n'intéresser que des
mathématiciens. Mais la limite correspondante du déterminisme apparaît aussi dans
des phénomènes physiques observables : dans l'Univers il existe de la matière
sombre dont l'existence est prouvée mais dont on ne peut rien « voir » d'autre que
l'effet gravitationnel à distance.
Voir en complément les conditions de prise en défaut du déterminisme.
Exemple de problème non calculable : le pavage du plan
Enoncé : étant donné un ensemble fini de formes planes polygonales différentes,
existe-t-il un algorithme pour décider si en les juxtaposant d'une certaine façon on
peut paver (c'est-à-dire recouvrir) la totalité du plan ?
C'est le « problème du carreleur » : comment disposer ses carreaux pour couvrir un
sol sans trou ni recouvrement ? Voici un exemple issu de [147] :
Pavage de Penrose
260
Le plan est pavé de carreaux en forme de losange. Les carreaux à bords parallèles
sont grisés et alignés en colonnes séparées tantôt par des intervalles étroits (S) ou
larges (L). Le pavage forme des motifs qualifiés de quasi périodiques ; il est
déterministe en ce sens que l'ordre de juxtaposition des carreaux peut être généré
par un algorithme.
Selon [91] page 176, Robert Berger a démontré en 1966 qu'il n'existe pas, en
général, d'algorithme permettant de disposer des carreaux polygonaux donnés de
manière à paver le plan : ce problème-là est sans solution. Sa démonstration prouve
l'existence de pavages du plan qui ne contiennent pas de parallélogramme répétitif,
appelés "pavages non périodiques". En voici un exemple dû à [148] :
Pavage non périodique
Voici trois exemples de pavage répétitif dus à [148] :
261
3.5.10.7.2 Il y a infiniment plus de réels non calculables que de réels calculables
Les programmes que l'on peut écrire dans un langage de programmation donné (qui
constitue une axiomatique [67]) forment un ensemble dénombrable, ensemble qui a
autant d'éléments-programmes que l'ensemble des entiers naturels 0, 1, 2, 3…
compte d'entiers. Un programme étant défini comme un couple (logique de calcul,
données initiales) peut calculer un nombre réel. Le nombre de nombres réels
calculables par des programmes est donc une infinité dénombrable.
L'ensemble des nombres réels n'est pas dénombrable : il y a infiniment plus de
nombres réels que de nombres entiers naturels (on dit qu'il a « la puissance du
continu »). Comme le nombre de programmes est une infinité dénombrable, il y a
nécessairement une infinité de nombres réels qui ne sont pas calculables.
Approfondissons un peu cette situation en partitionnant l'ensemble des nombres
réels en deux catégories, les nombres algébriques et les nombres transcendants
[56] :

On appelle nombre algébrique un nombre réel qui est racine d'un polynôme à
coefficients entiers, c'est-à-dire d'une équation de la forme :
a0xn + a1xn-1 + a2xn-2 +….+ an = 0
où les coefficients ai sont tous entiers et l'exposant n aussi.

Un nombre réel non algébrique comme  est dit transcendant : il n'est racine
d'aucune équation polynomiale à coefficients entiers.
On démontre que :

L'ensemble des nombres réels algébriques est dénombrable, c'est-à-dire que
chaque nombre algébrique peut être associé à un entier naturel et un seul ;

L'ensemble des nombres réels, algébriques et transcendants, n'est pas
dénombrable ; il y a infiniment plus de nombres réels que de nombres entiers
naturels ; il y a donc infiniment plus de nombres transcendants que de nombres
algébriques ;

Tout nombre algébrique est calculable : on peut écrire au moins un programme
informatique qui le calcule en un nombre fini d'étapes ;

L'ensemble des nombres réels transcendants comptant infiniment plus
d'éléments que l'ensemble des entiers naturels, il existe une infinité de réels
pour lesquels on ne peut écrire de programme de calcul, c'est-à-dire de réels
non calculables.
3.5.10.7.3 Propositions indécidables
Il y a une limite du déterminisme sur laquelle nous reviendrons à propos de la
pensée humaine : certaines affirmations peuvent être formulées, mais ni démontrées
ni infirmées avec un algorithme calculable [114] ; lorsqu'on peut prouver que leur
véracité ne peut être ni démontrée ni infirmée on les qualifie d'indécidables. [6]
Certaines de ces affirmations se révéleront exactes dans de très nombreux cas et ne
seront fausses dans aucun cas connu, mais on ne pourra pas prouver qu'elles sont
262
toujours vraies ; d'autres se révéleront fausses, un seul cas suffisant alors si on fait
l'hypothèse qu'une affirmation est toujours vraie ou toujours fausse [99].
Nous préférerons désormais l'expression proposition logique (ou simplement
proposition) à celle d'affirmation, car on a pris l'habitude de parler de calcul des
propositions.
Une proposition logique est indécidable :

Si on peut prouver qu'il n'existe pas d'algorithme pour calculer si elle est vraie ou
si elle est fausse ;

Ou si la démonstration de sa valeur logique ("vrai" ou "faux") peut exiger un
algorithme qui ne s'arrête pas, obligeant ainsi à attendre indéfiniment sa
réponse.
3.5.10.8
Calculabilité, déterminisme et prévisibilité
Considérons deux nombres réels calculables. Il est important de savoir s'ils sont
égaux ou non. Si on connaît une démonstration (par raisonnement) de cette égalité
ou inégalité, on a une réponse théorique à la question. Mais si on n'en connaît pas,
on peut se demander s'il existe un algorithme à qui la donnée de ces deux nombres
(ou la comparaison de paires de décimales successives, une de chaque nombre)
permet de répondre à la question de leur égalité.
Hélas, la réponse est "en général, non" : deux nombres réels irrationnels ayant une
suite infinie et non périodique de décimales, un algorithme qui comparerait une par
une les décimales de même rang ne se terminerait peut-être pas s'il continuait à
comparer les décimales tant qu'elles sont égales ; on n'en connaîtrait donc jamais,
alors, le résultat.
La comparaison de deux nombres irrationnels n'est pas la seule opération de durée
éventuellement infinie, donc par définition non calculable, puisque nous savons que :

Un algorithme est toujours déterministe, car il effectue seulement des opérations
déterministes (voir les hypothèses [114]).

Comme un algorithme n'a que des opérations déterministes, la calculabilité exige
le déterminisme : un phénomène non déterministe au sens scientifique
traditionnel, s'il existait, ne pourrait être modélisé de manière calculable. Mais
nous avons vu à propos du hasard qu'il n'en existe qu'un dans la nature, la
décohérence, et l'évolution par choix au hasard de valeur propre correspondante
est régie par le déterminisme étendu.

Partant de données initiales, un algorithme peut :
 S'arrêter après un nombre fini d'opérations, et son résultat est alors, par
définition, calculable ;
 Ne pas s'arrêter, et son résultat est alors, par définition, non calculable.
Mais avec des données initiales différentes son comportement peut être autre.
(Et comme signalé plus haut, il n'existe pas d'algorithme général pour savoir
d'avance, sans l'exécuter, si un algorithme s'arrêtera.)
263
Il y a autant d'algorithmes qui ne s'arrêtent pas que l'on veut, puisque :
 On peut écrire autant de programmes qui bouclent que l'on veut ;
 Il existe une infinité de programmes qui bouclent pour certains cas de
données initiales et pas pour d'autres ;
 Un programme calculant une suite ou une série non convergente peut
tourner indéfiniment sans converger.

Un autre cas de non-calculabilité est celui où le résultat à calculer est infini, ce
qui se produit dans certaines théories physiques mal adaptées à la réalité [119].
D'où la confirmation d'une conclusion déjà citée : il y a des processus déterministes
dont le résultat n'est pas calculable, parce qu'il faudrait :

Soit un nombre infini d'opérations, donc un temps infini. Ce sont en fait des
processus multi-étapes, qui en comptent un nombre infini dont chacune a une
durée finie (et non infiniment courte !) ;

Soit calculer des valeurs infinies, ce qui n'a pas de sens ;

Soit parce qu'ils définissent un nombre ou un concept non calculable, problème
déjà évoqué ;

Soit parce qu'ils ont construit une proposition indécidable [6].
Exemple : étant donné un nombre entier n, valeur initiale fournie à un algorithme,
affecter au résultat de l'algorithme la valeur 1 si la machine de Turing de rang n
lancée avec le nombre n s'arrête, et 0 si elle ne s'arrête pas. Puisqu'on ne peut
savoir d'avance (sans la faire tourner) si la machine de Turing s'arrêtera dans ce
cas, la proposition est indécidable et l'algorithme peut ne jamais s'arrêter, son
résultat étant donc non calculable.
Voici un autre exemple de processus physique déterministe à résultat non calculable,
cité par [91] page 243. Les équations différentielles de propagation d'onde sont
déterministes au sens traditionnel : leurs solutions sont telles que les données de
l'instant t=0 déterminent complètement l'onde à tout instant ultérieur. Or il existe des
cas où une solution a des données initiales calculables et des valeurs ultérieures non
calculables [116] ; dans une telle solution à un problème physique déterministe,
certaines fonctions ont des valeurs tantôt calculables, tantôt non calculables. Et
pourtant la nature n'hésite pas : à partir de toute situation initiale elle déclenche une
évolution conforme à ses lois !
Conclusion
Dans des cas particuliers rares, en physique ou dans des expériences de pensée
construites à cet effet, le résultat d'une formule ou d'un processus physique
déterministe peut être non calculable, ou tantôt calculable tantôt non calculable. Si le
processus est une évolution physique, la non-calculabilité n'empêche pas l'évolution,
elle empêche seulement de prévoir son résultat.
3.5.10.8.1 Calculabilité d'une prédiction
Nous avons postulé que les phénomènes de l'Univers sont déterministes. A part
comprendre une situation, connaître le déterminisme sert à prévoir l'avenir. Il est
important de savoir si, dans une situation donnée, il existe nécessairement un
264
algorithme de prédiction de son évolution. Cette question se pose d'autant plus que
nous venons de voir qu'il y a des processus déterministes dont le résultat n'est pas
calculable ; nous savons aussi déjà qu'un algorithme est toujours déterministe, mais
qu'il ne fournit pas toujours un résultat.
Indécidabilité prouvée et indécidabilité pratique
Considérons l'affirmation inquiétante : « La guerre atomique qui détruira l'humanité
commencera dans 30 ans. » Nous ne savons pas si cette affirmation est décidable,
c'est-à-dire s'il existe aujourd'hui un algorithme (raisonnement déductif formel)
permettant de la déclarer vraie ou fausse. Nous savons, en revanche, que le nombre
de paramètres d'un tel algorithme permettant d'y répondre est immense, tellement
immense que l'effort pour trouver cet algorithme est décourageant. En pratique,
donc, nous considérerons cette affirmation comme indécidable.
D'où une première constatation : une proposition peut être indécidable à coup sûr,
parce que cette indécidabilité a été démontrée dans le cadre d'une axiomatique [67],
ou être indécidable en pratique, parce que l'effort pour le savoir est hors de portée ou
parce que nous n'avons pas les connaissances nécessaires.
Remarquons aussi, en passant, que l'affirmation ci-dessus est infalsifiable : il
n'existe pas de moyen pratique de prouver qu'elle est fausse 30 années à
l'avance. C'est le cas de toutes les prédictions « boule de cristal » que les
auteurs d'horoscopes formulent soigneusement pour qu'elles soient
infalsifiables.
Considérons à présent l'affirmation « La guerre atomique qui détruira l'humanité
commencera dans 30 minutes. » Cette affirmation a beaucoup de chances d'être
fausse, parce que la situation mondiale grave conduisant à une telle guerre n'existe
pas en ce moment, et qu'il faudrait plus de 30 minutes pour qu'elle apparaisse. On
voit qu'une différence minime, le remplacement du mot "ans" par le mot "minutes",
peut changer la prédictibilité pratique d'un résultat d'évolution. Cette calculabilité (ou,
plus généralement, cette prédictibilité) pratique n'est donc pas une propriété
exclusivement formelle, elle dépend aussi de la sémantique. Donc, en général :

On ne peut prédire le résultat du déroulement d'un algorithme au vu de son texte
et de ses données initiales, il faut attendre la fin de son déroulement ; cela peut
prendre du temps, et si ce temps est trop long…

On ne peut prédire l'évolution d'une situation complexe par un simple
raisonnement déductif formel, il faut prendre en compte les valeurs de ses
paramètres, leur signification et leur impact. Parfois, il faudra attendre que la
situation ait déjà un peu évolué avant de pouvoir prédire la suite de cette
évolution.
Déterminisme et prédiction de l'avenir
Nous savons maintenant qu'il y a des phénomènes déterministes dont le résultat
n'est pas prédictible par raisonnement logique ou calcul, en théorie (indécidabilité) ou
en pratique. Mais leur caractère déterministe n'en est pas moins certain puisqu'ils
satisfont les deux critères de la définition : la condition nécessaire et suffisante et la
stabilité.
265
C'est ainsi que tous les phénomènes biologiques du vivant sont déterministes en
tant que résultats d'un ensemble de phénomènes composants déterministes (de
biologie moléculaire), alors que les conséquences des mécanismes
physiologiques et psychologiques basés sur eux sont souvent imprévisibles :
 Parce qu'on ne connaît pas – ou pas assez bien - tous ces composants [51]
- notamment lorsqu'interviennent des mécanismes mentaux non conscients ;
nous verrons plus bas cette conséquence de la complexité.
 Parce que la reproductibilité (stabilité des circonstances complexes) n'est
pas assurée.
L'homme est souvent imprévisible bien qu'il fasse partie de l'Univers, dont les
phénomènes physiques sont tous déterministes. Il faut donc bien, en pratique,
limiter la promesse de prédictibilité du déterminisme traditionnel, que ce soit
celui de Laplace [200] ou le déterminisme scientifique. Nous l'avions déjà
remarqué.
3.5.10.8.2
Phénomènes déterministes à conséquences imprévisibles et erreurs
philosophiques
Nous savons à présent qu'il existe des phénomènes dont le déroulement est
déterministe, mais dont le résultat ne peut être prédit au départ :

Soit parce qu'il faut un temps de calcul infini ou indéterminé pour que
l'algorithme calcule le résultat ;

Soit parce qu'au vu d'un algorithme et de ses données initiales on ne peut savoir
à l'instant du lancement s'il s'arrêtera, s'il se bloquera sur une opération
impossible comme une division par zéro, ou s'il fournira un résultat en un temps
fini assez court pour que nous l'attendions ;

Soit parce que la complexité du phénomène (nombre de phénomènes
déterministes composants trop élevé, interactions trop complexes), la présence
d'imprécisions (paquet d'ondes, Compton) ou celle d'instabilités (Heisenberg),
rendent son évolution imprévisible en pratique, même si elle est prévisible en
théorie ;

Soit parce que l'instabilité du contexte du phénomène ou sa sensibilité aux
conditions initiales rend celui-ci imprévisible en pratique ;

Soit parce qu'il n'existe pas d'algorithme pour calculer le résultat (exemple :
problème du pavage du plan avec des carreaux polygonaux, qui n'a pas
d'algorithme dans le cas général, mais dont tout pavage réalisé l'a
nécessairement été de manière déterministe).
Cette situation a été à l'origine d'erreurs de raisonnement sur le déterminisme,
commises par des philosophes qui confondaient impossibilité de toujours prévoir par
algorithme (raisonnement logique) le résultat d'une évolution, et non-déterminisme.
3.5.10.8.3 Critique de la position de Popper sur le déterminisme
Sir Karl Popper fut un philosophe des sciences qui adopta une position
métaphysique contre le déterminisme. Sa contribution à la méthodologie scientifique
est très importante, et nous y reviendrons plus bas.
266
Popper postule que le déterminisme implique la possibilité d'une prévision,
description précise de l'avenir à partir d'un certain instant t, qui peut être connue et
écrite d'avance par le démon de Laplace [200] à cet instant-là. Il pense que cet
avenir est indéterminé chaque fois que le texte physique de cette description contient
au moins un énoncé indécidable, par exemple l'énoncé d'une question sur l'avenir
(voir [6] et [209] page 125, argument 2). Pour Popper, des énoncés indécidables
peuvent exister à tout moment dans l'Univers, donc l'avenir est imprévisible au moins
de temps en temps, donc l'évolution de l'Univers est non déterministe. Voici un
résumé de ses arguments.
Une prédiction totale (complète) de l'avenir est impossible pour un prédicteur être
physique intérieur à l'Univers, car elle contredirait la logique ([209] pages 124-125) :

Un prédicteur physique ne peut prédire ses propres états futurs : la raison est la
même que pour la connaissance de la réponse d'un algorithme, réponse qui ne
peut toujours être connue avant la fin de son exécution.

Certaines questions sur son avenir, posées à un prédicteur ou par lui, pouvant
être indécidables, le prédicteur ne saurait y répondre. Il ne peut donc pas
connaître cette partie-là de son avenir, qui est donc imprévisible.

Un prédicteur connaissant son avenir pourrait profiter de cette connaissance
pour modifier cet avenir, donc sa connaissance préalable serait devenue
inexacte, ce qui contredit l'hypothèse.
De même, on ne peut prédire de futurs résultats scientifiques sans les décrire,
c'est-à-dire les connaître, ce qui contredit l'hypothèse qu'ils sont futurs.
Puisqu'une prédiction totale de l'avenir est impossible, Popper en déduit que
l'Univers est non déterministe, ou plus exactement que certaines de ses lois
contiennent de l'indétermination.
Critique de cette position
Popper part d'une hypothèse fausse : ce qui est déterministe est prédictible. Il
construit une conclusion concernant le déterminisme, c'est-à-dire les lois de
l'Univers, à l'aide d'un raisonnement logique sur ce déterminisme, raisonnement
basé sur un texte descriptif de l'avenir élaboré dans l'Univers par un prédicteur
physique, homme ou machine.
Un texte écrit par un homme (ou un ordinateur exécutant un algorithme conçu par un
homme) peut effectivement contenir des affirmations indécidables ou des questions
sans réponse, exactement comme il peut contenir des ensembles plus riches que
tout ce qui a existé, existe ou existera dans l'Univers, nous l'avons vu à propos de
l'existence de Dieu : l'imagination humaine est sans limite.
Mais un texte est une construction humaine et seul l'homme peut imaginer des
propositions indécidables ; la nature, elle, n'a pas de situation à partir de laquelle
"elle ne sait pas" ce qu'elle doit faire. Le contenu d'un texte ne prouve rien sur la
propriété de l'Univers d'obéir à des lois, déterministes ou non : ce n'est pas parce
que l'homme pense quelque chose ou pose une question, au sujet du passé, du
présent ou de l'avenir, que le comportement de l'Univers en est influencé - ou même
267
seulement décrit complètement. L'Univers peut donc contenir
quelconques sans que leur contenu soit en rapport avec ses lois.
des
textes
L'existence dans l'Univers de problèmes ou questions sans solution algorithmique ne
prouve pas que son comportement (celui des lois de la nature) puisse être
imprévisible. J'irai même plus loin : les problèmes sans solution (indécidables, non
calculables, etc.) sont tous d'origine humaine ; la nature, elle, n'a pas de situation qui
échappe à ses lois ou reste sans solution. L'imprévisibilité concerne des réponses à
des questions humaines, pas le comportement de l'Univers, toujours régi par des
lois ; il se trouve seulement que certaines lois prévoient des solutions multiples, font
des choix au hasard dans des ensembles prédéfinis de valeurs propres, ou imposent
des limites de précision.
Conclusions :

Déduire de l'existence possible de textes d'origine humaine contenant des
questions sans réponse ou des propositions indécidables ou contradictoires que
l'Univers est non déterministe dans certains cas, est une faute de raisonnement.
Le déterminisme régit les lois de la nature, et connaître le déterminisme aide
l'homme à prédire l'évolution de processus physiques. Mais le déterminisme ne
permet pas de répondre à n'importe question imaginée par un philosophe ou de
formuler une opinion argumentée sur n'importe quelle affirmation. Comme nous
l'avons vu :
 L'homme peut formuler des questions sans réponse, alors que la nature n'a
pas de situation dont l'évolution est indéterminée ;
 La pensée humaine est souvent imprévisible ; comprenant des processus
subconscients, elle ne résulte pas toujours de processus mentaux physiques
reproductibles, comme le croient des gens qui ont une vue simpliste de ces
processus.

Puisqu'il existe des lois de l'Univers prévoyant un résultat flou ou imprécis, ou le
choix aléatoire d'une valeur précise appartenant à un ensemble prédéfini, ou des
fluctuations quantiques, etc., il y a bien des cas d'imprédictibilité dans ces lois,
qui refusent de se conformer à nos modèles mentaux réducteurs. C'est pourquoi
j'ai défini le déterminisme étendu comme compatible avec ces divers refus de
précision dans les cas précis où des lois physiques les justifient.
Différences entre la position de Popper sur le déterminisme et la mienne
La conclusion de Popper (impossibilité d'une prédiction totale de l'avenir) est en
accord avec mes propres conclusions sur le déterminisme. Mais contrairement à
Popper qui s'est contenté de constater l'indéterminisme partiel résultant de la
définition du déterminisme traditionnel, je vais plus loin pour tenir compte des lois
d'évolution particulières de l'Univers qui contiennent de l'indétermination, de
l'instabilité, de l'imprécision ou du choix au hasard : j'affirme que l'imprédictibilité du
résultat est une caractéristique inévitable de certaines de ces lois, donc du
déterminisme étendu ; j'affirme aussi que la croyance en un déterminisme total,
comme celui de Laplace, est une façon d'attendre de la nature un comportement
conforme à nos modèles mentaux réducteurs, avec leur exigence de prédictibilité, de
précision, de solution unique, de séparabilité, etc., comportement qu'elle n'a pas
dans le cas général.
268
Nous allons voir deux autres raisons de critiquer la position de Popper.
1 - Le déterminisme n'entraîne pas toujours la prédictibilité (rappel)
Nous avons vu ci-dessus qu'un phénomène peut être déterministe sans que son
résultat soit prédictible par un algorithme. Et même pour une évolution décrite par un
algorithme, le résultat de son exécution avec des données initiales ne peut, en
génaral, être connu d'avance, tant qu'elle ne s'est pas terminée sans incident et en
un temps fini. Donc :

Le déterminisme n'implique pas nécessairement la possibilité d'une prédiction
statique des conséquences d'un phénomène, formulée au vu de la situation de
départ et des lois d'évolution.

Il permet de connaître la fin d'un processus lorsqu'il s'est déroulé, et le résultat
d'un algorithme en fin d'exécution.

Il implique aussi la stabilité (reproductibilité) du déroulement à partir de
conditions initiales identiques, même quand une cause a un ensemble de
conséquences possibles, comme lorsqu'une superposition d'états subit une
décohérence.
Lors d'une décohérence, la nature choisit au hasard un élément dans l'ensemble
prédictible des valeurs propres du dispositif expérimental. C'est le seul cas de
hasard dans une évolution naturelle, et même lui disparaît au profit d'un
déterminisme parfait avec l'interprétation de Hugh Everett.
L'exigence d'attendre la fin d'un processus pour la connaître est un contre-exemple
de plus du déterminisme philosophique [200]. L'erreur de Popper a consisté à ne pas
remettre en cause la définition traditionnelle du déterminisme, lui qui faisait de la
remise en cause des énoncés admis la base même du progrès scientifique !
2 - L'Univers est « déterministe étendu » bien qu'il contienne des propositions
indécidables
L'homme sait parfaitement rédiger des affirmations indécidables, et même en
générer automatiquement par un algorithme. Ces affirmations résultent alors d'un
« processus de fabrication » déterministe, mais cela n'entraîne pas leur décidabilité.
Leur existence n'empêche nullement tous les processus de la nature d'être
déterministes au sens étendu, comme nous l'avons postulé.
Un processus est une évolution concrète, physique et régie par des lois de la nature,
alors qu'une affirmation ou une question sont des abstractions de l'esprit humain. Il
ne faut donc pas déduire de l'existence d'une affirmation, de sa valeur logique
(vrai/faux), de sa signification ou de son énoncé une propriété physique qui
caractérise l'Univers, car il ne suffit pas que l'homme pense quelque chose pour que
la réalité s'y conforme ; nous avons déjà vu cela à propos des arguments
ontologiques de l'existence de Dieu.
Donc lorsque Popper conclut de l'existence dans l'Univers de propositions
indécidables et de questions sans réponse qu'il est au moins en partie non
déterministe, il fait une erreur de raisonnement ; il oublie que le déterminisme de la
269
nature n'entraîne pas la prédictibilité de la pensée humaine, et que l'imprévisibilité de
celle-ci n'entraîne pas celle de l'action des lois de l'Univers.
La véritable raison du non-déterminisme partiel de l'Univers (au sens de Laplace, car
moi je parlerais de non-prédictibilité) est l'obligation d'inclure du hasard, de
l'imprécision, de l'indétermination ou de l'instabilité dans l'action de certaines lois
physiques, donc dans le déterminisme qui les régit. L'existence de propositions
humaines indécidables est hors sujet s'agissant de la nature, qui n'en rédige pas.
Impossibilité d'énoncer une prédiction de l'avenir
Autre exemple d'affirmation contestable de certains philosophes : "Prédire un résultat
suppose de l'énoncer ; lorsque la prédiction concerne l'avenir de l'Univers c'est
impossible, car l'Univers ne peut contenir de description de lui-même sans que celleci contienne à son tour une description d'elle-même et ainsi de suite à l'infini." Allons
au fond des choses :

Lorsque la prédiction est intérieure à l'Univers et ne tente pas d'en décrire la
totalité (ce qui la rendrait métaphysique), elle est possible en vertu du
déterminisme étendu ; c'est une simple description humaine du résultat de lois
de la nature. Elle est toujours possible, sauf :
 Si une loi qui s'applique aux circonstances données est inconnue, car notre
science est par nature inachevée ;
 Si la prédiction demandée suppose une précision ou une unicité de résultat
inaccessibles : positions et dimensions floues, principe d'incertitude de
Heisenberg, longueur d'onde de Compton, choix aléatoire dans un
ensemble, calculs trop longs ou trop précis, sensibilité aux conditions
initiales, etc. ;
 S'il y a un obstacle pratique de type complexité.

Lorsque la prédiction demandée est une réponse à la question "Telle situation se
produira-t-elle ?" il peut arriver que la réponse soit indécidable [6]. Mais seul
l'homme pose de telles questions, l'Univers n'en pose pas et évolue en
appliquant ses lois sans jamais hésiter dans ses choix, sans indétermination,
sans angoisse métaphysique.
Donc l'homme peut, en effet, poser des questions sans réponse concernant
l'avenir, mais l'impossibilité d'y répondre vient alors de lui, pas de l'Univers ; et
l'absence de réponse à de telles questions ne rend pas l'Univers non
déterministe. L'Univers n'a ni situation ni loi indécidable ; lui en prêter est une
erreur humaine, car il ne pense pas.

Lorsque la prédiction concerne la pensée ou l'action d'une personne, nous avons
déjà vu et nous verrons plus en détail que celles-ci sont aussi, le plus souvent,
non prévisibles malgré leurs processus biologiques sous-jacents déterministes.
Lorsque la prédiction concerne la société humaine, par exemple l'économie ou la
paix sociale, elle est d'autant plus difficile qu'elle doit prendre en compte des
hommes souvent imprévisibles et des lois souvent peu ou pas connues : il suffit
de penser aux prédictions des analystes financiers concernant l'évolution des
cours de bourse et aux prédictions des sociologues et politologues concernant
une réaction du public. Niels Bohr disait malicieusement :
270
"La prédiction est un art difficile, surtout quand il s'agit de l'avenir."

Ce n'est que lorsque la prédiction porte sur quelque chose d'extérieur à l'Univers
(c'est-à-dire qu'elle concerne une évolution due à un phénomène externe - donc
transcendant ou surnaturel – ou une prédiction de l'évolution de l'Univers vue de
l'extérieur) que la prédiction rationnelle est à coup sûr impossible ; seuls les
prophètes et les voyants extralucides s'y risquent. Mais cette vérité-là est
évidente…
3.5.10.8.4 Calculabilité par limitations et approximations
Dans un ordinateur, un programme ayant un nombre d'instructions fini de durée
individuelle finie, ne peut durer indéfiniment que s'il exécute un nombre infini
d'opérations, soit en bouclant, soit en exécutant un algorithme non convergent. Ces
cas impliquent l'oubli par le programmeur d'inclure des tests de convergence.
Excluons-le désormais.
Un programme qui manipule des nombres réels travaille sur des approximations
binaires finies de ces nombres ; chaque opération de calcul a donc une durée finie.
L'égalité de deux nombres est définie à une décimale du dernier ordre près. Les
opérations (comme la multiplication et la division) qui génèrent plus de décimales
que le logiciel n'en peut traiter se terminent par une troncature des décimales en
surnombre du résultat. Les calculs approchés ayant des règles précises, ils sont
déterministes. L'utilisation de valeurs numériques approchées est justifiée parce
que :

la précision des grandeurs physiques, scientifiques, financières ou autres
qu'elles représentent est elle-même limitée ;

nous ne savons pas créer et manipuler des nombres de précision infinie.
L'esprit humain effectue, lui aussi, des opérations approchées, notamment lorsqu'il
raisonne par analogie, lorsqu'il compare deux objets en ne considérant qu'une partie
de leurs propriétés ou lorsque le subconscient fait des rapprochements surprenants.
Cette possibilité est bénéfique, car une connaissance exhaustive est rare, et un
résultat approché obtenu rapidement est souvent plus utile dans la vie courante
qu'un résultat plus précis obtenu trop tard. Nous verrons plus bas que ces opérations
mentales approchées sont en général non déterministes, parce qu'elles mettent en
œuvre des critères de qualité (précision, rigueur, etc.) non reproductibles ; ces
critères peuvent être basés, par exemple, sur des quantités de neurotransmetteur
("molécules d'anticipation, de désir") positives (agréables) ou négatives
(désagréables) dans le cortex préfrontal du cerveau, quantités qui peuvent varier
avec les circonstances externes (environnement, santé, etc.) [51]
3.5.10.9
Déterminisme et convergence des processus et théories
Le déterminisme est un principe qui régit l'évolution d'une cause vers sa
conséquence. Nous avons vu que si cette évolution est celle d'un algorithme qui
demande un temps de calcul infini on ne peut plus parler de calculabilité, même si
chaque étape de calcul peut se faire en un temps fini. Il est donc naturel de définir
arbitrairement comme non déterministe un processus de calcul de durée infinie, au
motif que son résultat est inaccessible, donc qu'il ne répond pas au besoin de
prévoir.
271
Si on accepte d'imposer au déterminisme cette contrainte de finitude, d'autres cas
apparaissent où elle ne peut être satisfaite, cas que nous qualifierons de non
convergents ou de divergents. Tous ces cas auront en commun de définir un
résultat, de type scalaire, vectoriel, matriciel, tensoriel, ou autre :

Soit comme la somme d'un nombre infini de termes dus aux étapes
intermédiaires, somme que les mathématiciens appellent série, et une série peut
converger ou non vers une somme limite finie, un nombre complexe déterminé,
etc. ;

Soit comme la limite d'une suite infinie de termes, qui peuvent tendre vers une
limite finie ou non.
Exemple : considérons la course entre le rapide Achille et une tortue [19]. Celle-ci
part avec une avance a sur Achille et progresse à une vitesse v (petit v) tandis
qu'Achille part en même temps et progresse à la vitesse V (grand V). Nous savons
qu'Achille rattrapera la tortue en un temps a/(V-v) à la position aV/(V-v). Zénon
(philosophe sceptique grec du IIIe siècle avant J.C.) calculait le temps nécessaire au
rattrapage comme la somme d'une série ayant une infinité de termes [19], et comme
il ne savait pas qu'une telle série peut être convergente si ses termes successifs
décroissent suffisamment vite, il en concluait (par goût du paradoxe) qu'elle
divergeait et qu'Achille ne rattraperait jamais la tortue !
L'exemple précédent montre l'intérêt d'un minimum de culture mathématique, la
connaissance des cas de convergence et de divergence des séries et des suites de
termes étant indispensable aux raisonnements déterministes comprenant un grand
nombre d'étapes.
Il y a d'abord la convergence dans l'espace, cas où les étapes successives d'un
processus déterministe qui en compte une infinité ajoutent chacune de la distance au
résultat ; celui-ci peut alors s'éloigner à l'infini ou devenir infiniment étendu si les
ajouts successifs ne décroissent pas assez vite.
En généralisant ce raisonnement à un espace des phases, un processus comptant
une infinité d'étapes sera déclaré non déterministe pour cause de divergence si l'une
des variables de son espace des phases est décrite par une suite ou une série
divergente.
Les exemples de convergence qui viennent naturellement à l'esprit comprennent une
limite unique, mais il existe des convergences vers plusieurs limites comme dans le
cas des attracteurs multiples.
Enfin, on peut parler de convergence d'une théorie : voir [219].
3.5.10.10
Logique formelle. Calcul des propositions. Calcul des prédicats
3.5.10.10.1 Logique formelle et logique symbolique
La logique formelle
La logique formelle est l'étude des affirmations, propositions et déductions
considérées du point de vue logique, abstraction faite de leur application et de leur
272
sémantique. Elle s'intéresse à la manière de déduire logiquement des propositions
les unes des autres, avec des implications ou des exclusions. C'est une étude à
priori, sans caractère expérimental ; elle n'utilise que des raisonnements logiques
déductifs, sans jamais recourir à l'observation ou l'expérimentation.

Exemple 1 : l'affirmation « Le petit chat est mort » ne peut être que vraie ou
fausse (principes de logique dits de contradiction et du tiers exclu, voir [99]) ; si
j'admets qu'elle est vraie, je ne puis en même temps affirmer « Le petit chat est
vivant », quel que soit mon raisonnement.

Exemple 2 : le respect de la logique formelle est une condition nécessaire de
validité d'une proposition. Si j'écris « le chat noir est blanc », c'est formellement
impossible, parce que j'affirme à la fois une chose et son contraire, ce qui est
inacceptable.
Mais la validité en logique formelle n'est pas une condition suffisante pour qu'une
proposition soit acceptable. La phrase « l'escargot déploya ses ailes et
s'envola » est parfaite sur le plan du formalisme grammatical, mais son sens est
absurde.
La logique symbolique
La logique symbolique fait partie de la logique formelle. Elle consiste d'abord à
décrire de manière symbolique une axiomatique [67] comprenant :

Des propositions (c'est-à-dire des formules ou des affirmations logiques
désignées par une lettre minuscule comme p, q, r, ou s) ; exemples :
 p : « Un camion a heurté violemment le petit chat »
 q : « Le petit chat est mort »
 r:«x<5»
 s:«x=8»
 0=0 (formule, proposition particulière non désignée par une lettre).
La proposition contraire de p, appelée « non p » est notée ¬p.
La valeur logique d'une proposition p ne peut être que 1 (vrai) ou 0 (faux) ;
si p est vraie on écrit simplement p ou p=1, si elle est fausse on écrit ¬p ou p=0.

Des opérations logiques sur ces propositions. Exemples :
 L'inférence "DONC" (c'est-à-dire si « proposition 1 » est vraie, alors
« proposition 2 » est aussi vraie) notée  ;
 Les conjonctions "ET" notée  et "OU" notée , etc.)
Ces opérations enchaînent deux ou plusieurs propositions ; exemples :
 p  q (« si un camion a heurté violemment le petit chat, alors le petit chat
est mort ») ;
 r  ¬s (si x < 5, alors x=8 est faux, c'est-à-dire x8)
 ¬(r  s) = 1 (affirmer à la fois « x < 5 » et « x = 8 » c'est énoncer quelque
chose de faux, mais son contraire est vrai).
273
La logique symbolique consiste ensuite, une fois la notation posée, à écrire un
algorithme (c'est-à-dire un raisonnement) qui enchaîne propositions et opérations
pour arriver à une conclusion : c'est un calcul de propositions, abordé ci-dessous.
La logique formelle est une activité parfaitement justifiée dans sa forme, mais qui ne
se préoccupe pas de la signification et des implications de ses conclusions. En fait,
elle exclut toute sémantique des propositions qu'elle manipule, laissant cette
sémantique à une métalogique qui a ses propres règles. Elle est à la portée d'un
ordinateur à qui elle permet, par exemple, de trouver des démonstrations en
combinant de toutes les manières possibles les axiomes fournis au départ et les
propositions déjà établies.
La logique formelle ne convient ni aux raisonnements nuancés, ni à ceux dont on ne
peut énoncer les axiomes de départ et les règles de déduction de manière complète
et non ambiguë. Voir aussi l'important complément [221].
3.5.10.10.2 Calcul des propositions
Le calcul des propositions est la mise en œuvre de la logique formelle. Il est basé sur
une axiomatique [67] appelée algèbre de Boole, qui applique aux propositions les
concepts suivants :

L'ensemble non vide de propositions appelé A, dont les éléments sont x, y, z…

Les opérateurs d'appartenance à un ensemble  (appartient) et  (n'appartient
pas) ; exemple : x  A ;

Les opérations logiques associatives "ET" notée  et "OU" notée  ;

L'opérateur unaire (c'est-à-dire portant sur une seule proposition) "NON" noté ¬ ;

Les paires de parenthèses ou de crochets "(" et ")" et "[" et "]" entourant une
proposition à considérer comme un tout, avec une priorité d'autant plus grande
que la paire est intérieure à une autre ;

Les valeurs logiques 1 (vrai) ou 0 (faux) ;

Le symbole = désignant un résultat de calcul logique.
Les axiomes de l'algèbre de Boole sont d'après [128] :

xA yA (x  y)  y = y ;
(quels que soient x et y appartenant à A, la proposition (x  y)  y équivaut à y,
ce qui est une tautologie)

xA yA (x  y)  y = y ;

xA yA zA x  (y  z) = (x  y)  (x  z) ;

xA yA zA x  (y  z) = (x  y)  (x  z) ;

xA x  ¬x = 0 ;

xA x  ¬x = 1 ;

xA x  0 = x ;

xA x  1 = x .
274
Le calcul des propositions peut aussi se baser sur des tables comme la suivante, où
la 3e ligne, par exemple, se lit : si p est faux et q est vrai, alors p  q est faux, p  q
est vrai et p  q est faux.
p
q
pq
pq
pq
1
1
1
1
1
1
0
0
1
0
0
1
0
1
0
0
0
0
0
1
Exemple de table pour le calcul de propositions
On voit l'extrême concision du calcul des propositions et son caractère automatique :
il suffit d'appliquer les axiomes et les tables de règles.
Voir aussi l'important complément [221].
3.5.10.10.3 Calcul des prédicats
Un prédicat est une proposition logique fonction d'une ou plusieurs variables.
Exemples : P(x) et Q(y,z) (noter les majuscules pour les prédicats et les minuscules
pour les variables). Selon les valeurs de ses variables, un prédicat prend la valeur 1
s'il est vrai, ou 0 s'il est faux.
Le calcul des prédicats est le langage par excellence des raisonnements
mathématiques. Il utilise :

Tous les symboles du calcul des propositions, sauf les lettres minuscules qui
désignent des propositions comme p et q ;

Les nombres entiers non négatifs : 0 ; 1 ; 2 ;… et l'opérateur "successeur de",
noté "s" faisant passer de l'un de ces entiers au suivant (exemple : 1=s0) ;

Les variables comme x, y, z, qui peuvent être de type quelconque (scalaire,
vecteur, variable logique, etc.) ;

L'opérateur d'affirmation d'existence d'au moins 1 élément :  ;
exemple : x(x>5) (il existe un x qui est supérieur à 5) ;

L'opérateur "quel que soit" :  ;
exemple : z(z2+3  k) (quel que soit z tel que z2+3  k) ;
Exemple de prédicat fonction des variables entières non nulles x, y, z, n :
le théorème de Fermat s'énonce :
x y z n [(n>2)  (xn + yn  zn)]
275
On voit que grâce à son symbolisme et à sa rigueur, le calcul des prédicats est à la
portée d'un ordinateur, notamment pour des démonstrations automatiques de
théorèmes : on dit que les algorithmes de calcul des prédicats sont calculables.
Voir aussi l'important complément [221].
3.5.10.11
Problèmes insolubles. Théorème de Fermat. Equations diophantiennes
On dit qu'un problème mathématique est insoluble lorsqu'on a démontré qu'il n'existe
pas d'algorithme permettant de le résoudre. C'est le cas, par exemple, du problème
de savoir si l'exécution d'un algorithme donné se termine en un nombre fini d'étapes,
permettant d'obtenir son résultat (c'est-à-dire pour savoir s'il convergera).
Etant donné un problème, tant qu'on n'a ni trouvé de solution, ni démontré qu'il n'y en
a pas, on ne peut rien affirmer en dehors d'éventuels cas particuliers. L'exemple le
plus célèbre d'un tel problème, qui a fait le désespoir de nombreux mathématiciens
depuis 1630 jusqu'en 1994, est le théorème de Fermat. En voici l'énoncé.
En 1630, Fermat avait affirmé - sans donner de preuve - que l'équation
xn + yn = zn, où les quatre variables x, y, z et n sont des entiers naturels
n'a pas de solution non nulle pour n>2.
(Pour n = 2, une solution connue est par exemple 3 2 + 42 = 52).
Cette affirmation, appelée "théorème de Fermat" ou "grand théorème de Fermat" ou
"dernier théorème de Fermat" n'a été démontrée qu'en 1994 par Andrew John Wiles.
Pendant 364 ans on ne l'a vérifiée que dans des cas particuliers : certains
mathématiciens obstinés l'avaient même vérifiée jusqu'à une puissance n voisine de
125 000, selon [91] page 135.
Cette équation est un cas particulier d'équation diophantienne, nom qui désigne toute
équation de la forme f(x1, x2,…, xp) = 0, où f est un polynôme à coefficients entiers
dont on cherche les solutions, ensemble de p variables x1, x2,…, xp qui sont aussi
des nombres entiers.
Nous avons depuis 1970 une démonstration du fait qu'il n'existe pas d'algorithme
universel permettant de savoir en un nombre fini d'opérations si une équation
diophantienne donnée a ou non une solution en nombres entiers.
Il existe donc des problèmes qui ont à coup sûr une solution calculable et d'autres
qui n'en ont pas. Parmi ces derniers, certains ont une solution dont l'existence est
prouvée, même si on ne sait - ou on ne peut - la calculer. (Exemple)
Concernant le déterminisme, lorsqu'un problème a été « mis en équation », tous les
cas précédents peuvent se produire.
3.5.10.12
Certitude de l'existence d'une démonstration dans une axiomatique
Dans une axiomatique [67], soit une proposition P formée selon les règles (donc dite
« syntaxiquement correcte »). Tous les théorèmes possibles dans cette axiomatique
276
peuvent être générés automatiquement en combinant les divers axiomes et
théorèmes précédemment démontrés selon les règles de déduction.
En pratique, il faut se fixer une limite aux nombre de d'étapes déductives
permettant la construction de théorèmes, car rien ne permet de limiter à priori la
longueur d'un raisonnement déductif. On doit aussi vérifier, dans le processus de
génération de déductions, qu'on ne génère pas une sous-arborescence déjà
construite. Le raisonnement qui suit est donc théorique.
Avec cette génération automatique, s'il existe un théorème prouvant que la
proposition P est vraie ou qu'elle est fausse, il sera trouvé et démontré. S'il existe,
car nous savons d'après les théorèmes d'incomplétude de Gödel [6], que certaines
propositions sont indécidables, c'est-à-dire indémontrables parce qu'il n'existe pas (et
ne peut exister) de théorème pour en prouver la véracité ou la fausseté.
3.5.10.13
Génération de nombres "aléatoires" avec une formule déterministe
Considérons la suite xn+1 = axn(1-xn) que nous avons rencontrée plus haut à propos
de la dynamique des populations, et choisissons x1 = 0.7 et a = 4. La suite des
valeurs de xn pour n entre 100 et 500 est représentée par le graphique ci-dessous :
Suite xn+1 = axn(1-xn) pour x1=0.7, a=4 et 100 ≤ n ≤ 500
La succession de valeurs de cette suite semble n'avoir aucune régularité, elle paraît
imprévisible, donc aléatoire. Elle est pourtant générée par un algorithme parfaitement
déterministe, et à résultats prévisibles puisqu'on peut calculer chaque élément x n+1
de la suite connaissant le précédent, xn. Cet exemple montre qu'une évolution
irrégulière peut résulter de l'itération d'une formule déterministe.
La trajectoire d'une molécule animée d'un mouvement brownien dans un fluide
est elle aussi irrégulière, car soumise à la loi d'innombrables rebonds. Il en va de
même pour les numéros produits par une « machine de tirage du loto ».
La génération par calcul et sa prédictibilité n'entraînent donc pas forcément la
régularité des suites générées. L'approche ci-dessus permet de générer des
ensembles de nombres paraissant aléatoires si on ignore leur mode de génération
ou qu'on les considère sur un intervalle large comme ci-dessus.
277
Nous avons vu une autre méthode pour générer une suite de nombres aléatoires. Il
suffit de considérer la suite des nombres en base 2 dont celui de rang n vaut 1
lorsque la machine de Turing calculant sur n s'arrête, et 0 si elle ne s'arrête pas.
Comme l'arrêt du programme correspondant ne peut être prévu par aucun
algorithme, cette suite de chiffres binaires est aléatoire. Mais cette méthode n'est pas
exploitable en pratique, parce qu'il faudrait exécuter l'algorithme de la machine de
Turing pour savoir si elle s'arrête…
3.5.10.14
Attracteurs multiples
Dans certaines conditions, les évolutions d'un processus chaotique peuvent
converger, au bout d'un certain nombre d'étapes, pour se regrouper au voisinage de
plusieurs points de l'espace des phases appelés attracteurs, notion que nous avons
déjà présentée. Une fois dans le voisinage d'un attracteur, le système continue à
évoluer mais ne peut s'en éloigner. C'est le cas de la suite précédente
xn+1 = axn(1-xn) pour certaines valeurs de a. Le graphique ci-dessous illustre cette
suite, commençant toujours avec x1 = 0.7, après remplacement de a = 4 par a = 3 :
après adaptation de l'échelle et de l'origine de l'axe vertical, on voit l'apparition de
deux attracteurs au voisinage de x = 0.655 et x = 0.678. Les attracteurs sont des
points d'accumulation [101] de l'espace des phases.
278
Suite des valeurs xn+1 = 3xn(1-xn) où x1 = 0.7 et n varie de 1 à 251 :
on voit les attracteurs au voisinage de x = 0.655 et x = 0.678
3.5.10.15
« Accidents » de la réplication du génome et évolution vers la complexité
Voici un autre exemple important d'évolution avec attracteurs.
L'existence de conséquences multiples d'un état initial peut aussi produire des
« accidents » (par exemple des liaisons moléculaires à probabilité faible qui
s'établissent néanmoins) notamment lors du mécanisme de réplication du génome
d'un être vivant. Dans l'immense majorité des cas le génome est parfaitement
répliqué, mais il y a de temps en temps des accidents appelés mutations. Bien que
279
rares, ces accidents sont la première explication de l'évolution des espèces.
L'apparition d'une espèce nouvelle à partir d'une espèce précédente est si
surprenante qu'elle est considérée par certains comme un phénomène non
déterministe ; elle relève pourtant du déterminisme étendu, comme une mesure en
physique quantique qui choisit un résultat dans un ensemble avec une certaine
probabilité. (L'évolution des espèces se produit aussi par évolution de l'expression
des gènes décrite plus bas).
On a constaté que l'évolution des espèces se produit par mutations génétiques
importantes et pas par petites variations : il y a alors discontinuité, pas continuité
comme Darwin l'avait pensé à l'origine [42]. Cette évolution est illustrée par le
graphique ci-dessous, résultat de travaux récents publiés par The New York Times
du 16/11/2006 dans l'article [303] :
Evolution des hominiens vers le néanderthalien et l'homme
On voit (partie supérieure du graphique étiquetée "Hominid family tree") une
première séparation des hominidés en homme + néanderthalien et chimpanzé il y a
6.5 millions d'années. La partie droite de ce graphique est dilatée en dessous ; elle
représente la période à partir de -706 000 où hommes et néanderthaliens se
croisaient, puis une divergence brusque entre hommes et néanderthaliens
vers -370 000. Les néanderthaliens ont disparu vers -28 000.
Les travaux du prix Nobel de chimie 1977 Ilya Prigogine sur les structures
dissipatives loin de l'équilibre thermodynamique ont complété et justifié ceux de
Darwin, en montrant que de multiples phénomènes de diffusion peuvent conduire à
des probabilités plus fortes en certains points de l'espace des phases appelés
attracteurs étranges, lorsque le système qui évolue dissipe de l'énergie (comme c'est
280
le cas pour les êtres vivants). Compte tenu des mutations génétiques, l'état du
système converge alors vers ces attracteurs.
Au lieu d'évoluer en se désorganisant, comme le prévoit le deuxième principe de la
thermodynamique pour des systèmes isolés proches de l'équilibre, le système peut
alors évoluer, par auto-structuration, vers plus de complexité. C'est pourquoi
l'évolution des espèces a produit des êtres vivants de plus en plus complexes, ce qui
à priori semblait contredire la thermodynamique et servait d'argument aux
spiritualistes adversaires de l'évolutionnisme matérialiste de Darwin.
La diversification accompagne la complexification. Elle résulte du fait que chaque
génome provient à parts égales du père et de la mère. La sélection naturelle produit,
sur l'être vivant résultant, à la fois de la complexification et de la diversification.
Des détails supplémentaires sont donnés plus bas.
3.5.10.16
Approche heuristique du déterminisme
Approche axiomatique ou approche heuristique ?
L'approche axiomatique [67] utilise une présentation structurée d'un domaine
scientifique. A partir de cette présentation, elle établit un résultat en appliquant à des
données fournies les axiomes et règles de déduction posés à priori, dont elle requiert
donc la connaissance.
Lorsqu'on ne peut structurer la description d'un domaine de connaissance avec la
rigueur formelle d'une axiomatique, on peut parfois décrire un certain nombre de cas
particuliers où la donnée des conditions initiales (la cause) permet de déterminer
avec certitude le résultat final : on a ainsi une approche heuristique du déterminisme.
Exemple : lorsque le botaniste Mendel a établi les lois de l'hybridation en 1865, il
n'avait pas de connaissances en matière de génétique, science basée sur ces
lois et apparue en 1906, le terme gène datant même de 1909. Les lois de
Mendel décrivent des cas particuliers de descendance (première génération,
générations suivantes) associés à des probabilités d'apparition ; elles ont été
construites par induction, en généralisant une approche heuristique.
Une approche heuristique consiste à examiner tous les cas qui se présentent, un par
un :

Pour trouver celui ou ceux qui constituent la solution cherchée et éliminer ceux
qui ne conviennent pas ;

Ou pour décrire l'évolution de chaque situation initiale, et parfois aussi évaluer
son résultat en fonction d'un critère d'intérêt ;

Ou enfin pour vérifier l'absence de cas qui contredirait une théorie.
Cette approche peut être intégrée à une approche axiomatique en posant comme
axiomes des tables qui spécifient la décision à prendre ou le calcul à effectuer dans
chacun des cas qui peuvent se présenter.
281
Mais ce n'est pas parce qu'on ne sait décrire l'enchaînement des causes et des
conséquences que dans les cas particuliers de l'heuristique que le déterminisme en
est modifié ; on est simplement en présence d'un domaine qui n'est pas
complètement exploré. Le déterminisme à la base du comportement de la nature
n'est, pas plus que ce dernier, fonction des connaissances humaines.
3.5.11 6e extension du déterminisme : irréversibilité
La symétrie temporelle du déterminisme traditionnel est contredite par la
thermodynamique, dont le deuxième principe (dit « Principe de Carnot », ou de
Carnot-Clausius) exige que l'entropie d'un système isolé en évolution croisse
jusqu'au maximum possible, atteint à l'équilibre thermique [25], donc que le temps
s'écoule du passé vers l'avenir (on parle de « flèche du temps ») ; l'évolution du
système est alors déterministe du présent vers l'avenir et interdite en sens opposé :
nous devons étendre notre définition du déterminisme pour en tenir compte. Ce
phénomène a été abordé au paragraphe "Comprendre le deuxième principe de la
thermodynamique".
Le deuxième principe de la thermodynamique s'applique en pratique chaque fois
que les énergies des molécules sont distribuées selon une loi probabiliste de
physique statistique, et il rend les évolutions des systèmes réels irréversibles ;
une transformation réversible n'est possible que si l'entropie totale du système
qui se transforme est constante : si elle croît ou décroît, la transformation est
irréversible ; ainsi, puisque effacer les données d'une zone mémoire d'un
ordinateur en les remplaçant par d'autres est une opération irréversible, elle
génère nécessairement de la chaleur.
Le principe thermodynamique de croissance de l'entropie (c'est-à-dire de la
désorganisation [25]) constitue une condition de possibilité : un gramme de sel en
cristaux ne peut se dissoudre dans un litre d'eau pure que parce que l'entropie de
l'eau salée résultante est supérieure à celle du système où l'eau et le sel sont
séparés ; et l'eau salée ne se sépare pas spontanément en eau pure et sel parce
que l'entropie décroîtrait. La dissolution du sel dans l'eau pure est un exemple
d'irréversibilité. La radioactivité en est un autre exemple abordé ci-dessous.
Il ne faut pas déduire de ce qui précède que l'irréversibilité d'un processus ne peut
résulter que du deuxième principe de la thermodynamique. Une onde
électromagnétique sphérique émise par un point P de l'espace à l'instant t1 s'éloigne
de P dans toutes les directions à la vitesse de la lumière, c ; à l'instant t2 elle a atteint
tous les points d'une sphère S de centre P et de rayon c(t2-t1). Ce phénomène n'est
pas réversible tout simplement parce qu'il n'existe pas de moyen physique de
l'inverser, d'obliger la sphère S (sur laquelle l'énergie initiale est répartie) à se
contracter jusqu'à se réduire au point P, ou de contracter tout l'espace comme lors
de l'hypothétique "Big Crunch" de l'Univers. Par contre, en « passant le film des
événements à l'envers » on verrait la sphère se contracter : on voit là un exemple de
la différence entre réversibilité (ici physiquement impossible) et changement de sens
du temps (changement de t en -t dans les équations de propagation).
3.5.11.1
Evolution unidirectionnelle du temps
Comprendre la raison de l'évolution unidirectionnelle du temps est essentiel à la
compréhension du principe de causalité. Voici deux exemples de théories à ce sujet.
282
Attribution à l'expansion de l'Univers
Selon certains cosmologistes comme Hermann Boni, cité par [249], l'évolution du
temps n'est possible que dans un seul sens, du présent vers le futur, parce que
l'Univers est en expansion. C'est ainsi que lorsque deux corps à des températures
différentes sont mis en contact, l'égalisation de leurs températures serait un
processus irréversible du fait de l'expansion de l'Univers. La croissance continue de
l'entropie de l'Univers serait aussi une conséquence de son expansion.
Depuis la fin de l'inflation, l'expansion se fait sans créer de matière ou d'énergie,
comme une bulle de savon qui se dilate à masse de savon constante : cette certitude
résulte aujourd'hui du succès de la théorie du Big Bang.
Attribution à la structure de l'espace-temps
Une théorie cosmologique moderne [276] attribue le caractère unidirectionnel de la
flèche du temps à une nécessité structurelle de l'espace-temps, lorsqu'on essaie de
rendre sa structure compatible à la fois avec la Mécanique quantique et la Relativité
Générale [328] dans le cadre d'une géométrie fractale à l'échelle atomique.
3.5.11.2
Radioactivité et stabilité des particules atomiques ou nucléaires
Le noyau atomique de certains éléments peut se décomposer spontanément en
plusieurs noyaux, en émettant de l'énergie sous forme de photons [117] et autres
particules. On dit alors qu'il est radioactif. La radioactivité traduit un état d'énergie
instable d'un noyau, état qui a tendance à évoluer vers plus de stabilité. Et cette
évolution est irréversible.
Exemple : l'uranium de masse atomique 238, élément n°92 de la classification
de Mendeleev parce que son noyau a 92 protons, se décompose en thorium 234
(élément 90) en émettant une particule alpha (atome d'hélium ionisé) et en
dégageant une énergie Q = 4.268 MeV (1 MeV = 1.6021 .10-13 joule), réaction
symbolisée par :
238
92U
→
234
90Th
+ 42He
(Q = 4.268 MeV)
234
Par la suite, le thorium 234
90Th se décompose à son tour en protactinium 91Pa
234
(oui, même masse atomique 234 que 90Th mais avec 1 proton en plus, résultant
de la décomposition d'un neutron du noyau en un proton, un électron et un
antineutrino) ; la décomposition émet un électron e -, un antineutrino * et
0.263 MeV d'énergie :
234
90Th
→
234
91Pa
+ e− +  ∗
(Q = 0.263 MeV)
La décomposition d'un noyau peut aussi se produire sous l'action d'un choc, par
exemple lorsqu'un neutron rapide percute un noyau d'uranium si violemment que
celui-ci se déforme puis se brise ; c'est ce qui se produit dans le processus de fission
des bombes atomiques, en libérant une énergie dévastatrice et des atomes
d'éléments plus légers, parfois eux-mêmes radioactifs, ainsi que des rayonnements
électromagnétiques extrêmement dangereux.
Mais dans le phénomène naturel de radioactivité cette décomposition se produit
spontanément, sans cause externe ; cette spontanéité est expliquée dans la
283
présentation de l'ouvrage et dans [23]. Les physiciens russes Flerov et Petrzhak ont
découvert en 1941 que l'uranium 238 se décompose spontanément. En fait, dans un
échantillon d'uranium 238, la moitié des atomes se décomposent en 4.5 milliards
d'années : on dit que la demi-vie de l'uranium 238 est 4.5 109 ans. Cette durée est
extrêmement longue (environ 1/3 de l'âge de l'Univers, qui est de 13.8 109 ans). Mais
le nombre d'atomes d'uranium 238 dans un petit échantillon de 1 milligramme étant
de l'ordre de 3 1017, on observe environ 1 décomposition spontanée par seconde,
assez pour faire réagir un compteur de particules.
La décomposition spontanée est constatée dans plusieurs éléments lourds de masse
atomique égale ou supérieure à 230. Certains éléments lourds ont une demi-vie bien
plus brève que l'uranium 238 : le fermium 256, par exemple, a une demi-vie de
l'ordre de 3 heures.
La décomposition spontanée se produit aussi pour des particules élémentaires. C'est
ainsi que la demi-vie d'un neutron non soumis à un champ quelconque est de l'ordre
de 13 minutes. Heureusement pour la stabilité de la matière de l'Univers, les
neutrons sont presque toujours soumis à un champ et sont stables, sans quoi nous
ne pourrions pas exister ! Et de leur côté les protons sont bien plus stables, puisque
leur demi-vie est estimée à au moins 1032 ans. En revanche, certaines particules ont
une demi-vie extrêmement brève, champ externe ou pas : le méson appelé 0 (pion
zéro) a une demi-vie de l'ordre de 10-16 seconde.
Cette décomposition spontanée résulte d'une instabilité énergétique, elle-même
propriété intrinsèque des noyaux et particules atomiques [23]. Du point de vue
causalité, il nous faut admettre que la nature crée à l'occasion des noyaux et
particules instables, et que l'homme sait en créer aussi lorsqu'il fabrique des
éléments transuraniens comme le fermium ou des particules comme les mésons. Le
déterminisme naturel peut donc se manifester par de l'instabilité, où l'état présent
évoluera sans cause externe vers un état plus stable au bout d'un temps plus ou
moins long, un phénomène expliqué en Mécanique quantique.
Conséquences pour le déterminisme
Nous devons donc en conclure qu'en plus de l'irréversibilité qu'il manifeste parfois, le
déterminisme peut être :

Multi-étapes (lorsque des évolutions s'enchaînent comme celles qui se terminent
par une décohérence) ;

Plus ou moins rapide en ce qui concerne la durée d'une évolution-conséquence
(et la durée est elle-même relative, puisque variant de manière relativiste avec la
vitesse de l'observateur : une horloge en mouvement rapide semble tourner plus
lentement qu'une horloge au repos) ;

Statistique, en ce sens que nul ne peut prédire l'ordre dans lequel les noyaux
d'un objet se décomposeront, ni l'instant où un noyau donné se décomposera.
La causalité qui agit dans la décomposition de noyaux ou de particules ne s'explique
pas parfaitement de nos jours [23]. L'instabilité énergétique n'est pas une cause
agissante [39], c'est une propriété ; et la conséquence - qui n'apparaît qu'au bout
d'un certain temps, d'ailleurs variable - n'agit pas sur un noyau ou une particule
284
donnée, mais statistiquement sur un nombre de noyaux ou de particules. Nous
touchons là aux limites des postulats de causalité et de déterminisme, certaines
propriétés des évolutions-conséquences étant imprévisibles au niveau atomique.
Plus exactement, certains effets déterministes ne peuvent être décrits correctement
que de manière statistique portant sur toute une population, pas sur une particule
individuelle. Même si cet aspect global du déterminisme nous choque, nous devons
l'accepter dans le cadre du déterminisme étendu parce que c'est une réalité
objective.
3.5.11.3
L'irréversibilité est une réalité, pas une apparence
D'après [26] pages 29-30, de grands savants comme le prix Nobel de physique 1969
Murray Gell-Mann (auteur de la théorie des quarks), ont soutenu que l'irréversibilité
n'était qu'une apparence, un résultat de notre connaissance insuffisante des
phénomènes. Cette opinion était basée sur le fait que l'entropie mesure
effectivement un manque d'information [25], manque qui pourrait cesser - espéraientils - avec les progrès de la science.
Einstein avait fait la même erreur en considérant les théories probabilistes de la
Mécanique quantique comme une représentation provisoire des phénomènes
masquant notre ignorance, représentation destinée selon lui à être remplacée
par une modélisation non probabiliste ; le modèle "ondes (probabilistes) de
matière" de Louis de Broglie est une image fidèle de la réalité, pas un artifice.
L'irréversibilité est une propriété réelle de certains processus naturels. Dans certains
phénomènes physiques, la croissance de l'entropie traduit une évolution naturelle de
l'ordre vers le désordre, évolution irréversible bien réelle qu'aucun progrès de nos
connaissances ne saurait interpréter différemment. C'est le cas, par exemple, de la
radioactivité naturelle dont nous avons parlé.
Une évolution réversible ne peut exister que dans un système théorique, idéal et
stable, car proche de son équilibre thermodynamique où il n'y a plus d'échange de
chaleur.
Mais un système réel est instable, évolutif. La croissance de l'entropie n'y est pas
inéluctable, et l'irréversibilité peut exister même si l'évolution du système le conduit
vers plus d'ordre, plus d'organisation. La flèche du temps, dans l'évolution naturelle
irréversible de systèmes qui échangent de l'énergie avec leur environnement, peut
dans certains cas conduire à moins d'entropie, c'est-à-dire plus d'organisation
(exemple ci-dessous).
Concernant la flèche du temps, voir aussi la discussion sur la Relativité et
l'écoulement du temps.
3.5.11.4
Décroissance de l'entropie. Structures dissipatives. Auto-organisation
Voici un exemple, cité par [26] page 31, de système qui échange de la chaleur avec
son environnement et évolue de manière irréversible vers plus d'organisation, c'està-dire moins d'entropie [25] - contrairement à ce qu'une compréhension superficielle
du déterminisme thermodynamique pourrait croire possible.
Considérons un système de deux boîtes closes reliées par un tuyau (figure cidessous). Mettons-y au départ un mélange de deux gaz, hydrogène H2 et azote N2.
285
Ces deux gaz se mélangent jusqu'à ce qu'il y ait, dans chaque boîte, la même
proportion d'azote par rapport à l'hydrogène et la même température T, opération qui
fait croître l'entropie jusqu'à un maximum obtenu à l'équilibre thermique.
T1
T2
Chauffons alors la partie gauche de la boîte à la température T 1 tout en refroidissant
l'autre à la température T 2 < T1. Le flux de chaleur, phénomène irréversible, détruit
l'homogénéité du mélange, diminuant ainsi l'entropie et augmentant l'organisation : la
concentration en hydrogène devient plus élevée dans la partie chaude, et la
concentration en azote plus élevée dans la partie froide (explication : [27]).
Conclusion : un échange de chaleur avec l'extérieur peut faire évoluer un système
vers plus d'organisation (moins d'entropie) ; l'irréversibilité peut avoir un rôle
constructif ! Le déterminisme peut, selon le cas, conduire vers moins ou davantage
de désordre. Comme le souligne [26] page 32, les processus irréversibles jouent un
rôle constructif dans la nature, ce qu'une mauvaise compréhension de la
thermodynamique fait considérer comme impossible.
Loin de son équilibre thermique, et notamment si un système échange de l'énergie et
de la matière avec son environnement (système dissipatif) et s'il est non linéaire, la
croissance de son entropie n'est plus obligatoire, l'entropie peut décroître et le
système peut évoluer vers plus d'organisation : c'est ce que nous apprennent les
travaux d'Ilya Prigogine sur la convergence dans l'espace des phases vers des
points attracteurs.
(De toute manière l'entropie du système global, comprenant le système qui
échange de l'énergie et son environnement, doit croître : une création d'ordre
quelque part est toujours compensée par une création au moins aussi grande de
désordre ailleurs, c'est une loi thermodynamique et une des caractéristiques du
déterminisme classique dont ce texte complète la description par étapes.)
Voici des extraits de [26] pages 76 à 78, qui illustrent le comportement de certaines
réactions chimiques loin de l'équilibre thermodynamique :
"…un ensemble de nouveaux phénomènes se produit : nous pouvons avoir des
réactions chimiques oscillantes, des structures spatiales de non-équilibre, des
ondes chimiques. Nous avons nommé « structures dissipatives » ces nouvelles
organisations spatio-temporelles."
"…les structures dissipatives augmentent généralement la production
d'entropie."
286
"Je ne décrirai pas ici cette réaction. Je veux seulement évoquer notre
émerveillement lorsque nous vîmes cette solution réactive devenir bleue, puis
rouge, puis bleue à nouveau […] Des milliards de molécules évoluent ensemble,
et cette cohérence se manifeste par le changement de couleur de la solution.
Cela signifie que des corrélations à longue portée apparaissent dans des
conditions de non-équilibre, des corrélations qui n'existent pas à l'équilibre."
(Lorsque des milliards de molécules évoluent ensemble, leur synchronisme
témoigne d'un déterminisme global, à longue portée, phénomène dont nous
avons déjà donné des exemples.)
Ces citations montrent une possibilité d'auto-organisation des composants d'une
solution chimique, auto-organisation qui peut, par exemple, être oscillante ou
traversée par des ondes de réaction chimique… L'oscillation rappelle alors celle que
nous avons constatée dans l'exemple mathématique précédent.
Voici un dernier extrait de [26] page 79, qui montre que les structures dissipatives de
non-équilibre sont un phénomène très général, une caractéristique du déterminisme
étendu appliqué aux processus irréversibles :
"…les structures dissipatives de non-équilibre ont été étudiées dans beaucoup
d'autres domaines, par exemple en hydrodynamique, en optique ou dans les
cristaux liquides."
3.5.11.5
Programme génétique et déterminisme
Le génome d'un être vivant, animal ou végétal, est un ensemble d'éléments appelés
gènes, longues chaînes d'acides aminés qui sont des instructions de fabrication des
protéines. Chacun des quelque 24 000 gènes humains (constitué par des millions ou
des milliards de paires de bases formant un segment d'ADN) est porteur d'un
caractère héréditaire précis, dont il assure la transmission. La structure et les
fonctions de chaque cellule sont définies par un programme génétique (analogue à
un programme informatique) dont les instructions et données sont stockées dans les
structures de molécules d'ADN des chromosomes, des plasmides, des mitochondries
et des chloroplastes.
Le génome peut être considéré comme un programme dont l'exécution (un
informaticien préciserait : l'interprétation) crée des protéines et des cellules vivantes
par l'intermédiaire de mécanismes appropriés mettant en jeu l'ARN [85]. L'existence
et le fonctionnement de ce programme génétique font de la création de ces protéines
et cellules vivantes un phénomène déterministe.
Toutes les cellules d'un individu donné possèdent le même génome, provenant d'une
seule cellule initiale, l'œuf. Mais un mécanisme de différenciation irréversible permet,
avec ce même génome, la création d'un grand nombre de types différents de
cellules, environ 200 chez l'homme. Chaque type est spécialisé et présente une
morphologie et un fonctionnement propres.
L'hérédité fait, par exemple, que des chats engendrent des chats de la même
espèce : le programme génétique est donc transmis à la fois chez un même individu
à partir de l'œuf initial, et d'un individu à ses descendants par hérédité. Il y a donc un
déterminisme inscrit dans le programme génétique qui garantit la reproductibilité de
287
ces deux types de transmissions, ainsi que la différenciation en types spécialisés de
cellules.
Le programme génétique ne peut s'exécuter correctement que dans certains
contextes. Ainsi, par exemple, certaines protéines ne sont synthétisées que si
certaines parties du programme se sont déjà déroulées correctement auparavant.
Le programme génétique a donc pour fonction de générer des protéines. Mais
cette génération elle-même exige la présence de certaines protéines. On peut
donc se poser la question du type « qui fut le premier, de la poule ou de
l'œuf ? » : est-ce l'ADN qui est apparu avant les protéines, ou le contraire ? Des
scientifiques travaillent sur ce sujet. [85] [86]
3.5.11.5.1 Gènes et comportement humain
Chaque mois qui passe, les chercheurs découvrent de nouvelles propriétés des
gènes concernant leur influence sur le comportement humain. Parfois un seul gène
est associé à un comportement, parfois il en faut plusieurs [51]. La terrible maladie
de Huntington est associée à un seul gène, la mucoviscidose aussi. L'ouvrage [154]
pages 130-131 cite le gène D4DR, situé sur le chromosome 11 : le nombre
d'occurrences de ce gène sur le chromosome détermine le niveau de production de
dopamine, un neurotransmetteur [176] dont nous décrirons le rôle en matière de de
désir, d'anticipation agréable plus bas. Dans ce paragraphe, il nous suffit de savoir
que la dopamine stimule l'activité de l'organisme : son absence ou un trop faible
niveau entraînent la léthargie, tandis qu'une surabondance entraîne la suractivité, la
recherche de la nouveauté, le désir et la prise de risques. Exemple cité par [230] :
des mésanges qui font preuve de plus de curiosité que les autres ont la même forme
particulière du gène D4DR que les humains particulièrement curieux.
Mais il ne faut pas penser que les séquences de gènes D4DR expliquent à elles
seules la tendance d'une personne à rechercher ou non la nouveauté et à être ou
non hyperactive ; elles n'en expliquent qu'une petite partie. Dans la plupart des
expériences sur la relation entre gènes et comportement, on trouve des explications
partielles, des corrélations, et il faut plusieurs gènes pour expliquer un
comportement. Plus généralement, la génétique intervient pour une partie du
caractère inné d'un trait de personnalité ou d'une aptitude, mettons 20 % à 60 % de
la variance ([51] page 4), et l'acquis culturel pour le reste. Et la proportion varie avec
le trait considéré et l'individu. (Voir les exemples [228] et [231]).
Un individu donné n'est donc que partiellement déterminé par son hérédité génétique
à sa naissance. Si un savant surdoué mais laid épouse une reine de beauté sotte il
n'est pas certain que leur progéniture ait l'intelligence du père et la beauté de la
mère. Cela peut arriver, mais il peut aussi arriver qu'un de leurs enfants ait la beauté
du père et l'intelligence de la mère, et des caractères hérités de grands-parents…
3.5.11.5.2 Renouvellement biologique et persistance de la personnalité
Pendant la vie d'un homme la plupart des cellules de son corps se renouvellent
plusieurs fois. On appelle renouvellement biologique le phénomène continu du vivant
d'apparition, de disparition ou de modification de cellules. Selon les cellules, chez
l'homme, le renouvellement peut avoir lieu, par exemple, au bout de quelques jours
ou de quelques mois. Le renouvellement biologique est accompagné d'échanges de
matière et d'énergie du corps avec son environnement.
288
Le renouvellement d'une cellule donnée peut concerner une fraction de son
cytoplasme. Il peut aussi concerner la cellule entière, en remplaçant une cellule
éliminée par une autre, résultant d'une mitose (division d'une cellule-mère en
deux cellules).
Incapables de mitose, certaines cellules ne se renouvellent pas. C'est le cas, par
exemple, des cellules cardiaques et des cellules nerveuses [138]. L'absence de
mitose - qui n'empêche pas la génération ou le renouvellement cellulaire (par
exemple, pour les neurones, par renouvellement du neuroplasme) - a un
avantage : les cellules correspondantes ne peuvent être cancéreuses.
Le renouvellement d'une molécule complexe peut remplacer toute la molécule
ou seulement un de ses constituants. Mais - et c'est là une des propriétés
fondamentales de la physique - une molécule de formule et structure données
(par exemple la molécule d'eau H2O) est exactement la même, qu'elle soit dans
un corps humain ou dans l'eau d'un lac, qu'elle ait été produite par un
mécanisme biologique ou une réaction de chimie minérale. Et les constituants de
la matière que sont les atomes et leurs protons, neutrons et électrons sont
exactement les mêmes dans un être vivant terrestre ou de la matière
interstellaire ; un atome de fer 56Fe est parfaitement identique dans un poisson et
dans une portière de voiture. On pourrait donc changer atome par atome tous
les atomes d'un être humain vivant (si on savait le faire) sans aucune
modification visible de son corps ou de sa personnalité - à condition de respecter
les structures moléculaires.
Les caractéristiques statiques et de comportement d'un être vivant ne sont donc
pas dues à des propriétés de ses atomes, mais à la structure de ses molécules
(ordre de ses atomes et de leurs liaisons moléculaires), qui constitue l'ensemble
"logiciel+données" responsable de toutes ses caractéristiques. (Voir remarques
[96] et [51]). Nous reviendrons à plusieurs reprises plus bas sur la modélisation
des êtres vivants par un ordinateur et son logiciel.
Malgré le renouvellement biologique et les réparations du génome (évoquées plus
bas et dans [32]), malgré les divers mécanismes d'adaptation de l'organisme à son
environnement et son mode de vie, beaucoup de caractéristiques externes d'un
organisme sont persistantes.
Exemples : la couleur des yeux ne change que rarement après les premières
années, la personnalité de l'individu est assez stable, et le renouvellement
biologique ne lui fait pas perdre la mémoire.
Cette persistance illustre l'importance du code génétique, ce "logiciel" de l'homme si
stable qu'il transmet les caractéristiques d'un individu par hérédité. Comme un
ordinateur dont le fonctionnement perceptible de l'extérieur dépend de son logiciel et
pas de son matériel (à part la performance), la personnalité de l'homme dépend (en
plus de son acquis) de son logiciel génétique et pas des cellules de son corps. C'est
pourquoi l'application de la doctrine matérialiste à l'homme ne peut se contenter
d'expliquer son comportement dans un contexte donné à partir de ses seules cellules
(correspondant au matériel d'un ordinateur), elle doit prendre aussi en compte son
logiciel génétique et les conséquences de ce qu'il a appris.
289
En matière de personnalité humaine le déterminisme est à la fois génétique (l'inné),
et adaptatif (l'acquis), comme nous allons le voir [51].
3.5.11.5.3 Evolution du programme génétique
Au fur et à mesure du développement de l'individu (ontogenèse [78]) et des
circonstances de sa vie, et au fur et à mesure qu'on passe d'une génération à sa
descendance, certains mécanismes de création de protéines et de création cellulaire
peuvent se modifier : une partie du programme génétique est capable de se modifier
et de s'adapter par autoprogrammation.
Cette adaptation par autoprogrammation génétique a été mise en évidence par les
recherches citées dans [258], dont voici une citation :
"Il ne faut que 15 générations pour que le génome de certaines mouches évolue
dans un sens qui leur permettre d'apprendre plus vite. Au début de l'expérience,
il faut beaucoup d'heures aux mouches pour apprendre la différence entre deux
types d'aliments dont l'odeur est appétissante, mais dont l'un est nocif. Les
mouches dont le génome s'est adapté à un apprentissage rapide n'ont besoin
que de moins d'une heure."
Autre exemple d'adaptation génétique, voici des extraits de [80] :
"Vers les années 1946-1948, Boris Ephrussi observait qu'une culture de levure
diploïde ou haploïde donne après repiquage, dans les quelques jours qui
suivent, une colonie identique aux cellules mères sauf, dans quelques cas, 1 à
2 % de cellules plus petites. Les mutants « petite colonie » ne donnent que des
petites colonies. La mutation est irréversible. Le traitement des cellules de la
souche sauvage par l'acriflavine fait passer le taux de mutation de 1-2 % à
100 %. Ces mutants poussent lentement car ils ne peuvent respirer, leur
métabolisme est uniquement fermentaire, ils ont perdu la capacité de synthétiser
un certain nombre d'enzymes respiratoires."
"Ephrussi devait arriver à la conclusion que la souche sauvage et les mutants
« petites colonies » diffèrent par l'absence, dans le dernier cas, d'unités
cytoplasmiques requises génétiquement pour la synthèse de certains enzymes
respiratoires."
"En 1968, on devait démontrer que la mutation « petite colonie » est due à une
altération importante de l'ADN mitochondrial. Cette molécule contient 75 000
paires de bases… la mutation « petite colonie » correspondrait à une excision et
amplification de fragments d'ADN terminés par des séquences CCGG, GGCC."
Ces modifications, appelées mutations, sont parfois dues à des accidents, comme
nous l'avons vu. D'autres sont dues à des agressions de l'environnement, comme
l'absorption de substances chimiques nocives ou l'action de rayonnements ionisants
(rayons X ou ultraviolets, par exemple). Souvent, les mutations sont inopérantes et
leurs conséquences néfastes sont annulées par des mécanismes réparateurs de
l'ADN comme les enzymes du « système S.O.S. » [32]. D'autres mutations sont
nécessaires à l'adaptation de l'individu à son environnement, comme celles qui
produisent des anticorps de résistance à une infection.
290
Autres exemples de mutations :

L'adaptation de nombreux insectes aux pesticides, la résistance croissante de
nombreuses bactéries aux antibiotiques et les mutations de virus.

Les habitants des pays asiatiques qui ont depuis des siècles une alimentation
plus riche en amidon que celle des Européens, ont dans leur génome des copies
supplémentaires d'un gène facilitant la digestion de l'amidon, alors que les
Européens n'ont pas ces copies : le génome s'adapte à des habitudes de vie et
ces adaptations se transmettent entre générations.
3.5.11.5.4 Evolution d'une population
Une population évolue quand des individus porteurs de certains caractères
(exemple : la taille) ont une descendance plus nombreuse que les autres individus ;
ces caractères deviennent alors plus fréquents dans les générations suivantes.
Lorsque les caractères génétiques d'une population se modifient avec le temps, on
dit que cette population subit une évolution biologique. Lorsqu'une telle évolution
correspond à une amélioration des capacités de survie ou de reproduction, on parle
d'adaptation de cette population à son environnement. La sélection naturelle (étudiée
par Darwin) favorise la survie et la multiplication des populations les mieux adaptées
et défavorise les autres.
Lorsque l'évolution d'une espèce vivante A produit des individus suffisamment
différents de ceux de cette espèce, mais suffisamment semblables entre eux pour
constituer une espèce B, on dit qu'il y a spéciation. Ce phénomène s'explique par
l'existence d'attracteurs multiples. Les individus de l'espèce B ont de nombreux
points communs avec leurs ancêtres de l'espèce A. La biodiversité résulte de
nombreuses spéciations successives.
Remarque : il est faux d'affirmer que « l'homme descend du singe » : la vérité est
qu'ils ont un ancêtre commun.
La théorie darwinienne de l'évolution est prouvée par :

La paléontologie, qui montre qu'il a existé des espèces intermédiaires entre
celles d'aujourd'hui et d'autres, plus anciennes ;

Les caractéristiques physiologiques et génétiques communes à des espèces
ayant un ancêtre commun ;

L'observation de modifications génétiques dans une même population,
notamment lors d'un croisement d'espèces provoqué par l'homme ;

La séparation et la dérive des continents, qui explique :
 L'existence d'une même espèce ou d'espèces ayant un ancêtre commun
dans des masses continentales distinctes qui se sont séparées il y a environ
200 millions d'années ;
 La présence en certains endroits seulement d'espèces ayant évolué après
cette séparation.
Une des rares erreurs de Darwin a été de croire que les mutations produisant des
spéciations étaient progressives : nous savons aujourd'hui qu'elles produisent des
291
sauts assez importants. Mais cette erreur ne met en cause ni les fondements de la
théorie de l'évolution que sont les mutations génétiques, ni la sélection naturelle.
Nous verrons cela plus en détail un peu plus bas.
3.5.11.5.5 Evolution due à une modification de l'expression de gènes
L'article [89] décrit les résultats de recherches récentes qui montrent que l'évolution
darwinienne par mutations génétiques, qui agit à long terme (sur des milliers
d'années), est accompagnée d'une évolution due à une mutation de l'expression de
gènes, c'est-à-dire de la manière dont la machinerie cellulaire interprète les gènes
pour fabriquer des protéines. Cette mutation de l'expression provient parfois d'un
processus très simple affectant un seul gène, et produisant un résultat dès la
génération suivante, voire au bout de quelques mois ; parfois la mutation concerne
un ensemble de gènes ; parfois même elle agit immédiatement [227].
Le compte-rendu de recherches récentes [243] confirme qu'il suffit parfois qu'un
simple radical méthyle (CH3, 4 atomes seulement) se lie à un gène pour inhiber
l'expression de celui-ci, produisant alors des effets considérables sur
l'organisme. Il existe ainsi plusieurs types de "commutateurs chimiques" qui
déclenchent ou inhibent l'expression d'un gène, avec des effets importants sur la
plupart des affections non infectieuses (cancer, obésité, désordres
neurologiques, etc.) Ces déclenchements ou inhibitions peuvent avoir un effet
pendant toute la vie de l'organisme ou seulement pendant un temps. Ce sont
des effets "tout-ou-rien", parfaitement déterministes et analogues aux effets de
commutateurs logiciels sur des programmes informatiques.
Le développement d'un organisme par ontogenèse [78] est déterminé par une
hiérarchie de gènes, dont chaque niveau commande le niveau inférieur. Cette
hiérarchie fonctionne en favorisant l'évolution de certaines formes d'organes et en
interdisant certaines autres. Une hiérarchie de gènes donnée est le plus souvent
héréditaire, conduisant à ce qu'à partir de la génération suivante tous les
descendants aient la même hiérarchie, commandant la même expression de ses
gènes.
Exemple 1 : les gènes de la famille PAX6 déterminent le développement des
yeux dans des êtres aussi différents que l'homme et la mouche.
Exemple 2 : aux îles Galápagos, tous les fringillidés (oiseaux de la famille des
pinsons, bouvreuils et chardonnerets) descendent d'un même ancêtre venu du
continent. Mais ils sont très différents des fringillidés continentaux, par la forme
et la taille de leur bec (adapté aux nourritures disponibles dans ces îles), ainsi
que par la taille générale de certains oiseaux, nettement plus importante et
procurant plus de robustesse, et par d'autres caractéristiques témoignant d'une
adaptation. Extrait traduit :
"En 30 ans, la mesure annuelle des fringillidés a montré que les tailles du bec et
du corps ont toutes deux évolué de manière significative. Mais elles n'ont pas
varié d'une manière continue et progressive ; la sélection naturelle a tâtonné,
changeant souvent de sens d'évolution d'une année sur l'autre."
Les chercheurs ont découvert que toutes ces évolutions s'expliquaient par une
expression plus importante du gène BMP4, qui produit une quantité de protéine
(appelée aussi BMP4) proportionnelle à l'expression du gène. En augmentant
artificiellement la production de cette protéine dans des embryons de poulets, ils
292
obtinrent des poulets plus grands avec des becs nettement plus forts, ce qui
confirmait que c'est bien le BMP4 qui est à l'origine de ces évolutions rapides.
La découverte de l'importance de l'expression des gènes dans l'évolution, et le fait
qu'une modification d'expression (parfois d'un seul gène) peut déterminer une
évolution à très court terme, constituent un développement récent fondamental de la
théorie de l'évolution, qui ne considérait jusqu'à présent que la mutation du génome,
avec ses effets à long terme.
Nous savons aujourd'hui que de nouvelles espèces d'êtres vivants peuvent
apparaître à la suite d'une évolution de l'expression de gènes existants, non mutés.
Des scientifiques ont découvert que les gènes nécessaires à l'apparition des
pattes et des doigts, indispensables pour qu'un animal aquatique puisse sortir de
l'eau et se déplacer sur la terre ferme, existaient depuis longtemps dans de très
anciens poissons (les Tiktaalik) lorsqu'une évolution dans leur expression a
permis la croissance de ces nouveaux types d'organes et la sortie de l'eau des
nouveaux animaux, les tétrapodes [90].
Nous savons aussi qu'une habitude de vie, un changement important de mode de vie
ou un entraînement intensif conduisent à une adaptation de l'organisme par
modification de l'expression de gènes chez l'individu concerné. Cette modification a
des conséquences comme :

L'adaptation de certains neurones, qui peuvent par exemple se multiplier et
multiplier leurs synapses [268] pour adapter l'organisme à une pratique
fréquente (pianiste qui s'exerce 8 heures par jour, athlète qui s'entraîne
fréquemment, etc.)

L'adaptation d'organes (muscles, os, etc.).
3.5.11.5.6 Conclusion sur le déterminisme génétique
Le déterminisme existe bien dans le domaine du vivant sous la conduite du
programme génétique. Certains mécanismes déterministes assurent la réplication
héréditaire, d'autres la résistance aux agressions de l'environnement, d'autres
encore l'adaptation à des conditions de vie qui changent. Le programme génétique
est auto-adaptatif dans certaines limites, cette auto-adaptation étant une
caractéristique du déterminisme dans le cas des êtres vivants. Nous approfondirons
ce sujet, qui impacte fortement la définition du déterminisme étendu, plus bas.
Mais d'ores et déjà nous pouvons affirmer que les êtres vivants sont soumis à un
déterminisme génétique, qui est adaptatif et agit à long terme par mutation du
génome dans l'hérédité, ou à court terme par modification de l'expression de gènes
dans l'adaptation aux conditions de vie.
Voir aussi les universaux [168], à l'origine d'une part importante du déterminisme
humain.
3.5.11.6
Vie, organisation, complexité et entropie
En recourant à un dualisme [95] simple, la vie est caractérisée par deux sortes
d'organisations, dont l'ordre s'oppose au désordre (ou à l'ordre très simple) de la
matière inanimée :
293

L'organisation architecturale, statique :
 du code génétique, où l'ordre des molécules constitue un programme dont la
logique détermine des fonctions comme la spécialisation des enzymes ;
 des cellules, dont il existe de nombreux types spécialisés différents (les
cellules du sang sont d'un type différent de celles des neurones…).

L'organisation fonctionnelle, dynamique, qui coordonne par exemple les milliers
de réactions chimiques des fonctions vitales de l'être vivant. Dans cette
organisation, on trouve aussi bien des rythmes réguliers, périodiques, comme
celui du cœur, et des mécanismes arythmiques comme les processus
neurologiques du cerveau.
Ces deux sortes d'organisations sont intimement liées, chacune conditionnant l'autre.
Voir aussi : Ensemble de définition d'une loi déterministe.
Tout être vivant est un système dissipatif : il échange constamment de la matière et
de l'énergie avec son environnement, ce qui prouve son instabilité permanente
(thermodynamique et chimique), instabilité et échanges qui ne prennent fin qu'avec
la mort. Pendant toute sa vie, des parties de cet être sont détruites et crées,
l'instabilité étant même une condition nécessaire de ses processus vitaux et de
l'auto-organisation qui lui permet de s'adapter constamment à son environnement
[33].
L'élaboration d'un être vivant à partir de molécules (quand il se nourrit ou se
développe) constitue une complexification, un progrès vers l'organisation de la
matière. Cette complexification diminue l'entropie [25] de l'être vivant qui s'organise,
en augmentant celle de son environnement. Le deuxième principe de la
thermodynamique (augmentation de l'entropie du système global) est bien respecté,
mais la diminution d'entropie de sa partie être vivant relève d'un processus
particulier : elle résulte de la dissipation d'énergie et de l'échange de matière par
l'être qui vit et se trouve loin de l'équilibre thermodynamique et chimique.
En somme, la complexification des êtres vivants résulte d'une succession
d'instabilités, sans lesquelles la vie n'aurait pu subsister. Notre conception du
déterminisme doit donc tenir compte des exigences d'instabilité et de dissipation
d'énergie et de matière de la vie.
3.5.11.6.1 Apparition de la vie et évolution des espèces
A une échelle de temps assez grande, de l'ordre du million d'années, l'évolution des
espèces étudiée par Darwin peut aussi progresser vers la complexité. Mais cette fois
ce sont les mutations génétiques accidentelles qui sont responsables, et la sélection
naturelle favorise les espèces les mieux adaptées ; les variations d'expression de
gènes favorisent bien plus l'adaptation que la complexification.
Nous avons vu que, contrairement à l'hypothèse de Darwin, qui pensait que
l'évolution d'une espèce se fait de manière quasi continue, « par petites
touches » ne modifiant que très peu à la fois de l'être vivant concerné, la
présence d'attracteurs étranges fait que l'évolution se produit par changements
importants, tels que l'apparition soudaine d'une espèce nouvelle comme
l'homme de Neanderthal.
294
Schématiquement, les étapes qui conduisent aux mutations génétiques pérennes
sont les suivantes :

Le système vivant subit les contraintes de son milieu, contraintes qui
déterminent des seuils d'instabilité dans l'espace des phases ;

Certaines fluctuations sont amplifiées au voisinage d'un seuil, d'où des
bifurcations et des évolutions vers tel attracteur de l'espace des phases plutôt
que tel autre. Il n'y a pas de hasard dans ce processus, mais seulement
amplification ou non d'une fluctuation périodique au voisinage d'un point critique.
3.5.11.6.2 Preuves de l'évolution darwinienne
Il s'agit ici des preuves de l'évolution du programme génétique vue plus haut.
Une théorie scientifique est considérée comme prouvée lorsque :
1.
Elle explique des faits constatés et non expliqués avant elle, ou mal expliqués ;
2.
Elle prédit des faits précédemment inconnus, ses prédictions étant vérifiées ;
3.
Elle n'est pas contredite par des conséquences qu'on en tire ou des faits avérés,
bien qu'elle ait été soumise à la communauté scientifique pour accord
consensuel ou réfutation.
(Pour plus de détails, voir "Définition d'une théorie appliquée à un domaine pratique"
et "Critères à respecter pour qu'une théorie scientifique soit acceptable").
L'évolutionnisme de Darwin répondait aux conditions 1 et 3 depuis la publication de
son ouvrage "De l'origine des espèces", en 1859 [42]. Son interprétation génétique,
plus récente, est basée sur des mutations génétiques accidentelles, nous venons de
le voir. Ces mutations sont dues à des liaisons moléculaires au niveau du génome
qui parfois s'établissent alors qu'elles ne le font pas en général, ou parfois ne
s'établissent pas alors qu'elles s'établissent le plus souvent. La probabilité de ces
accidents résulte directement de la Mécanique quantique.
L'article [192] montre que la condition 2 ci-dessus est remplie depuis les années
1920 : on a montré à l'époque qu'en favorisant les perturbations accidentelles de
l'énergie de liaison moléculaire du génome de l'orge au moyen de rayons X on
provoquait de multiples mutations artificielles. On a ainsi obtenu des plantes de
couleur blanche, jaune pâle ou à bandes de couleurs alternées. Depuis cette date,
des mutations artificielles sont déclenchées dans de nombreux pays, pour obtenir
des espèces nouvelles de plantes ayant des propriétés intéressantes. On a ainsi
obtenu des espèces plus résistantes et d'autres donnant de meilleurs rendements.
La différence entre cette technique de mutation artificielle (par perturbation des
liaisons moléculaires du génome sous l'influence de rayonnements X ou gamma) et
les manipulations génétiques produisant des "organismes génétiquement modifiés"
est simple : la mutation due au rayonnement agit comme la nature en modifiant un
génome, alors que l'approche OGM ajoute délibérément un gène étranger à un
organisme. La mutation artificielle se contente de rendre plus fréquents les accidents
peu probables affectant des liaisons moléculaires ; l'homme n'a plus qu'à tester les
propriétés des nouvelles espèces et à retenir celles qui lui sont utiles.
295
C'est ainsi que, de nos jours, environ la moitié du riz cultivé en Californie
provient d'un mutant artificiel appelé Calrose 76, et que les trois quarts des
pamplemousses qui poussent au Texas proviennent de deux variétés mutantes
de couleur rouge, Star Ruby (créée en 1971) et Rio Red (créée en 1985). La
technique d'obtention de plantes nouvelles par mutation artificielle est aussi
utilisée en Europe et en Asie.
Comme la création d'espèces nouvelles par mutation est un processus naturel
simplement déclenché ou accéléré, cette technique n'a jamais provoqué d'incident ni
fait l'objet de protestation, contrairement à celle des OGM.
3.5.11.6.3 L'obstination des tenants du créationnisme
Voilà donc environ 80 ans que l'apparition d'espèces par mutation génétique est
prouvée et que l'homme sait s'en servir à volonté. Il est donc ahurissant de constater
qu'il reste tant de personnes qui nient la réalité de l'évolutionnisme au nom du
respect de la vérité biblique, qui prétend que Dieu a fait chaque espèce telle qu'elle
est de nos jours. Aux Etats-Unis il y avait fin 2005 au moins 16 états où un débat sur
la théorie qu'il fallait enseigner (l'évolutionnisme, le créationnisme, ou les deux bien
qu'elles s'excluent mutuellement) faisait rage, l'évolutionnisme étant parfois présenté
comme l'une des théories, l'autre étant le créationnisme de la Bible [244]. Et nous
avons vu dans la 1ère partie de cet ouvrage qu'en 2005 un porte-parole on ne peut
plus officiel de l'Eglise catholique, Mgr. Schönborn, cardinal-archevêque de Vienne et
proche du pape Benoît XVI, a écrit au New York Times pour rappeler que l'Eglise
catholique considère l'évolutionnisme comme une théorie fausse : il n'y a pire sourd
que celui qui ne veut pas entendre ! Heureusement, le pape Benoît XVI, son
supérieur dans la hiérarchie de l'Eglise catholique, a admis l'évolutionnisme et
affirmé seulement que l'origine du monde est la volonté créatrice de Dieu [D7].
Le grand philosophe Kant définissait les organismes vivants par leur capacité à
posséder des finalités internes, résultant d'une intelligence supérieure qui oriente les
phénomènes de la vie vers des objectifs finaux. Cette explication téléologique, due à
sa foi en Dieu et à l'absence à son époque de connaissances scientifiques
contredisant le finalisme, a été démentie par les théories modernes d'autoorganisation, qui montrent comment les structures et fonctions complexes du vivant
résultent de phénomènes naturels déterministes. Nous avons vu cela dans la
première partie, à la section "Faiblesse de la preuve téléologique".
3.5.11.7
Effondrement gravitationnel et irréversibilité. Trous noirs
L'effondrement gravitationnel d'une étoile est un exemple d'irréversibilité qui a des
conséquences particulières sur notre définition du déterminisme. Voici d'abord un
résumé du phénomène d'effondrement gravitationnel.
Evolution d'une étoile
Pendant la plus grande partie de sa vie, une étoile est stable. La fusion
thermonucléaire de l'hydrogène en hélium dans son cœur y dégage du rayonnement
électromagnétique au prix d'une légère perte de masse, et la pression de radiation
de ce rayonnement sur les couches extérieures de l'étoile suffit à équilibrer
l'attraction gravitationnelle de ces couches. Mais peu à peu le « combustible »
nucléaire qu'est l'hydrogène s'épuise : notre soleil (désigné ci-dessous par le
caractère  et sa masse par M) perd chaque seconde 4.3 millions de tonnes
296
d'hydrogène transformé en rayonnement. (Sa masse est si colossale M = 2 1030 kg - qu'il pourra continuer à se permettre ce niveau de perte de masse
pendant des milliards d'années).
L'hydrogène du  se transformant progressivement en hélium plus dense, la masse
du cœur de l'étoile augmente peu à peu tandis que son diamètre diminue sous la
pression de la force de gravitation. En même temps, la température du cœur et des
couches externes augmente, l'étoile se dilate et devient une géante.
La température du cœur du  passera ainsi de 15 millions de degrés K
aujourd'hui à 120 millions de degrés K dans quelques milliards d'années,
température suffisante pour que l'hélium lui-même se transforme par fusion en
éléments plus lourds comme le béryllium, l'oxygène, le silicium et le carbone.
L'étape finale est une transformation du noyau de l'étoile en fer, élément le plus
stable, incapable de subir d'autres réactions de fusion.
A force de se dilater, les couches externes de l'étoile se refroidissent et sa couleur
vire au rouge : elle devient une géante rouge. Dans environ 5 milliards d'années,
notre  enflera, son diamètre actuel de 1.4 million de km devenant 100 à 250 fois
plus grand, arrivant ainsi peut-être à englober l'orbite de la Terre.
L'épuisement de son combustible nucléaire se poursuivant, la géante rouge se
contracte jusqu'à ce qu'il ne reste plus que son cœur, d'un rayon voisin de celui de la
Terre (6378 km), ce qui est très petit pour une étoile : celle-ci est alors devenue
naine. Comme sa température élevée la fait briller d'un éclat blanc, on dit que l'étoile
est une naine blanche.
La densité d'une naine blanche est très élevée, correspondant à la grande majorité
de la masse initiale de l'étoile dans un diamètre 100 fois plus petit, donc un volume
1 million de fois moindre ; elle est de l'ordre de 108 à 1012 kg/m3, c'est-à-dire entre
100 000 et 1 milliard de fois celle de l'eau liquide. La pression gravitationnelle atteinte
dans la matière d'une naine blanche est donc fantastique.
Comment la matière fait-elle pour résister à de telles pressions ? Il y a deux « lignes
de défense » successives, toutes deux basées sur un important théorème de
Mécanique quantique connu sous le nom de principe d'exclusion de Pauli.
3.5.11.7.1 Principe d'exclusion de Pauli
Ce principe affirme que deux particules distinctes de type fermion (comme des
électrons ou des protons) ne peuvent être dans le même état quantique, décrit par la
même fonction d'onde, alors que deux particules de type boson le peuvent. Cela veut
dire, par exemple, que deux électrons (tous deux fermions) ne peuvent être au
même endroit en même temps s'ils ne diffèrent pas par une autre variable d'état, par
exemple le spin [22].
Par contre, un nombre quelconque de particules de type boson (comme le photon ou
un noyau d'atome d'hélium) peuvent être en même temps dans le même état
quantique : un nombre quelconque de telles particules peuvent être au même endroit
en même temps, propriété surprenante ! Ces particules peuvent être, par exemple :

Des photons de même fréquence, propriété utilisée dans un laser.
297

Des noyaux d'hélium, dont on explique ainsi la superfluidité de la phase de très
basse température appelée hélium II : écoulement sans frottement, liquide qui
escalade les parois de son récipient, conductibilité thermique très grande, etc.
3.5.11.7.2 La masse limite de Chandrasekhar - Supernova
Le physicien indien Chandrasekhar a démontré que lorsque la masse du cœur d'une
étoile est devenue du fer par fusion et dépasse 1.44 M (masse dite "de
Chandrasekhar"), la pression gravitationnelle sur ses atomes devient si élevée que
leur résistance mécanique due au principe d'exclusion de Pauli appliqué aux
électrons ne suffit plus : ceux-ci n'arrivent plus à rester à l'écart des noyaux des
atomes. Ils fusionnent alors avec leurs protons, qui deviennent des neutrons.
La première ligne de défense contre la pression gravitationnelle vient alors de céder :
les protons et électrons des noyaux des atomes du cœur forment des neutrons ;
étoile est devenu une étoile à neutrons ou même un trou noir si sa masse dépasse
une certaine limite. Les couches externes de l'étoile attirées par le cœur n'étant plus
soumises à une pression de radiation s'effondrent environ 1 seconde après et,
tombant de milliers de km de haut, rebondissent sur le noyau en créant une onde de
choc. Cette onde se propage alors vers l'extérieur avec une explosion extrêmement
violente nommée supernova, dont l'éclat peut dépasser pendant plusieurs jours
celui d'une galaxie entière comptant 100 milliards d'étoiles. Cette explosion éjecte
une partie de la masse de l'étoile sous forme d'un nuage de gaz chaud qui s'étend
rapidement, à une vitesse de l'ordre de 10 000 km/s [285]. La photo ci-dessous
représente un tel nuage, la nébuleuse de la constellation du Crabe, au centre duquel
on voit encore aujourd'hui l'étoile à neutrons du cœur initial.
Il existe un autre mécanisme d'explosion en supernova [285]. Il se déclenche
spontanément lorsque le noyau d'une naine blanche, susceptible de fusionner, atteint
une masse critique, notamment lorsque la masse de la naine blanche augmente par
accrétion de matière d'une étoile voisine formant avec elle un système binaire. C'est
une colossale explosion thermonucléaire due à la fusion des couches carbone et
oxygène de l'étoile en nickel radioactif, fusion qui dégage une énergie énorme. Cette
énergie se propage de manière explosive vers l'extérieur de l'étoile, qui est
complètement détruite. Les restes gazeux de l'explosion sont alors éclairés pendant
des semaines ou des mois par le rayonnement de décomposition radioactive du
nickel.
298
Nébuleuse du Crabe formée par explosion thermonucléaire, observée en 1572 [131]
Pour la plupart des étoiles, qui comme notre  ont une masse inférieure à 1.44 M,
cette explosion ne se produira pas : après avoir été géantes rouges elles deviendront
des naines blanches qui finiront par « s'éteindre » (se refroidir) lorsque leur
combustible nucléaire sera épuisé.
3.5.11.7.3 Les étoiles à neutrons
Le résultat de l'effondrement gravitationnel d'une étoile dont le cœur pèse plus de
1.44 M est appelée étoile à neutrons. Ses atomes sont devenus des neutrons,
serrés les uns contre les autres de manière si dense que son rayon est d'une dizaine
de km. La densité d'une telle étroite défie l'imagination, puisqu'elle est de l'ordre de
100 millions de fois celle d'une naine blanche, déjà énorme ! Les neutrons de l'étoile
sont si serrés qu'ils se comportent comme un noyau atomique unique géant.
L'étoile à neutrons concentre tout le moment cinétique du noyau stellaire dont elle est
née dans un rayon environ 1000 fois plus petit ; conformément au principe de la
conservation du moment cinétique, elle tourne très vite autour de son axe, 30 fois par
seconde dans le cas de l'étoile à neutrons du centre de la nébuleuse du Crabe. Cette
rotation est accompagnée d'émissions de rayonnements électromagnétiques de
fréquence extrêmement stable, qui a fait donner à ces étoiles le nom de pulsars.
299
3.5.11.7.4 Les trous noirs
L'effondrement d'une étoile à neutrons peut être arrêté par une deuxième ligne de
défense, due elle aussi au principe d'exclusion de Pauli, mais appliqué cette fois aux
neutrons, dont deux ne peuvent partager le même état quantique car ce sont des
fermions. Mais cette ligne de défense peut céder, elle aussi, lorsque la masse
résiduelle de l'étoile à neutrons après l'explosion en supernova dépasse une certaine
limite. Les calculs théoriques montrent alors que plus rien ne peut arrêter
l'effondrement gravitationnel : la totalité de la masse-énergie de l'étoile à neutrons
s'effondre jusqu'à ce que son diamètre soit infiniment faible : l'étoile est devenue un
trou noir.
Ici intervient la Relativité Générale, qui associe à chaque densité de masse en un
point une courbure de l'espace-temps environnant [328]. La masse d'un trou noir
pouvant atteindre, voire dépasser, 20 milliards de M (le trou noir NGC 4889, à 336
millions d'années-lumière, pèse 23 milliards de M), l'espace au voisinage est très
fortement courbé, il a une géométrie sphérique [109]. Dans cet espace courbe, les
géodésiques (lignes de plus courte distance entre deux points) ne sont plus droites.
Bien que la vitesse de la lumière, c, reste la même, les cônes de lumière le long
d'une ligne d'univers représentant de la matière en effondrement gravitationnel sont
penchés en direction du centre de l'étoile.
Lorsque la matière qui s'effondre atteint une certaine distance du centre appelée
horizon ou rayon de Schwarzschild, R, l'inclinaison du cône de lumière par rapport à
l'axe vertical ct du diagramme d'espace-temps de Minkowski devient telle qu'aucune
particule ne peut plus s'écarter du centre, qu'elle ait ou non de la masse : la particule
est alors piégée dans le trou noir, dont elle ne peut plus sortir. L'espace au voisinage
du trou noir est si courbé que même la lumière ne peut plus en sortir ; le nom de trou
noir vient de ce qu'on ne peut le voir, puisque aucune lumière n'en sort et aucune ne
le traverse.
Si on ne peut voir un trou noir, sa présence se signale par :
 De la matière qui tourne autour, par exemple une étoile satellite du trou ;
 Du gaz interstellaire qui tombe en spirale dans le trou, où il disparaît par
absorption (voir schéma).


Ce phénomène peut être d'une luminosité fantastique, le trou noir avec sa
spirale étant alors appelé quasar (de l'anglais "quasi-stellar object") et
produisant - à des milliards d'années-lumière de distance - mille fois plus de
lumière à lui seul qu'une galaxie entière comme la nôtre (100 milliards
d'étoiles, largeur 100 000 années-lumière) ;
Deux jets d'électrons, dits relativistes car ils sont accélérés à une vitesse
proche de celle de la lumière, qui créent des lobes immenses (parfois plus
d'une année-lumière de longueur) de part et d'autre du quasar ;
Des particules accélérées par leur rencontre avec la sphère horizon du trou,
en rotation rapide, et qui s'éloignent à grande vitesse.
Enfin, la formation d'un trou noir ou son absorption d'un autre astre se signalent
par des ondes gravitationnelles que les scientifiques détectent [313].
Lorsqu'une galaxie contient un trou noir (ce qui est très fréquent), celui-ci dévie les
rayons lumineux provenant d'une éventuelle galaxie située derrière lui et qui passent
300
à proximité dans leur chemin vers la Terre, en suivant les géodésiques courbes de
l'espace voisin (espace d'autant plus courbé que l'on est près du trou noir). Les
rayons passant d'un côté du trou noir et ceux passant de l'autre côté (ou au-dessus
et au-dessous) donnent des images différentes et distinctes de la même galaxie
cachée, images multiples qui constituent un mirage gravitationnel. Une galaxie
lointaine, ponctuelle vue de la Terre, a le même effet de « lentille gravitationnelle »
qu'un trou noir pour l'image d'une autre galaxie située derrière.
Horizon des événements d'un trou noir - Rayon de Schwarzschild
Si la dimension du trou noir proprement dit est infiniment faible, la portion sphérique
d'espace environnant dont rien ne sort a un rayon fini appelé horizon des
événements du trou noir (ou simplement horizon). En pratique, toute matière ou tout
rayonnement intérieur à cet horizon étant invisible à l'extérieur, tout se passe comme
si le trou noir avait un rayon R égal à cet horizon, donné par la formule :
R
2GM
c2
où :

G est la constate universelle de gravitation, G = 6.67 .10-11 Nm2/kg2 ;

M est la masse du trou noir ; (la masse du soleil est M = 2 1030 kg) ;

c2 est le carré de la vitesse de la lumière, approximativement 9 1016 m2/s2.
Le rayon R ci-dessus est appelé « rayon de Schwarzschild », « rayon gravitationnel »
ou simplement rayon du trou noir. Ce rayon augmente avec sa masse ; pour un trou
de 10 M, le rayon est d'environ 30 km. Dans une sphère de rayon R, un trou noir
se forme :

dès que la masse de matière qu'elle contient dépasse c2R/2G, ou

dès que sa densité dépasse 3c2/8GR2.
Un trou noir peut donc se former même avec une masse modeste, lorsqu'elle est
concentrée dans une sphère suffisamment petite, de rayon R < 2GM/c2.
3.5.11.7.5 Masses et dimensions dans l'Univers
Nous avons jusqu'ici présenté le phénomène de formation d'un trou noir comme lié à
l'effondrement d'une étoile lourde. En fait il peut se produire chaque fois que, dans
une région de l'espace, la densité (masse par unité de volume) est suffisante pour
entraîner un effondrement gravitationnel.
Le diagramme ci-dessous, issu de [132], caractérise divers objets allant d'un noyau
atomique à un amas de galaxies et l'Univers observable [111] tout entier, par leur
masse (en abscisse) et leur dimension (en ordonnée).
301
Le coin en bas à droite, délimité par la droite du rayon gravitationnel, est la plage de
formation de trous noirs. Comme un trou noir commence à se former lorsque la
densité de matière environnante est suffisante il peut se former pour de tout petits
objets très denses. Un noyau atomique d'un diamètre de l'ordre de quelques fermis
(1 fm = 10-15 m) a une densité de l'ordre de 2.7 .1017 kg/m3, donc supérieure à la
densité de la sphère horizon du trou noir de 10 M (1.8 .1017 kg/m3) : on ne pourrait
pas le comprimer beaucoup avant qu'il ne s'effondre en trou noir.
3.5.11.7.6 Attraction gravitationnelle au voisinage d'une étoile effondrée
Effondré ou non, un astre de masse M attire un corps de masse M' situé à une
distance d de son centre en exerçant une force F = GMM'/d2. Cette force applique à
la masse M' une accélération a donnée par F = M'a. Donc GMM'/d2 = M'a, d'où
l'accélération due à l'attraction de l'astre de masse M à la distance d :
a
GM
d2
Chiffrons cette accélération sur des exemples :

A la surface de la Terre, l'accélération de la pesanteur est g = 9.8 m/s2.
302

Située à environ 150 millions de km du , la Terre est soumise de sa part à une
accélération de 0.006 m/s2, 1600 fois plus faible que g.

A 10 000 km du centre d'une étoile naine blanche de masse 1 M (c'est-à-dire
près de sa surface), l'accélération est 1.3 .106 m/s2, c'est-à-dire 130 000 fois la
pesanteur terrestre g.

A 10 km du centre d'une étoile à neutrons de masse 2 M (là aussi près de sa
surface), l'accélération est 26.7 .1011 m/s2, c'est-à-dire 272 milliards de fois la
pesanteur terrestre g.

A 1 million de km d'un trou noir de masse 10 M (distance 33 000 fois
supérieure à son horizon) l'accélération est 1340 m/s2, c'est-à-dire 140 fois la
pesanteur terrestre g.
On voit qu'un astre mort attire fortement toute matière située dans son voisinage.
Cette matière finit par tomber sur lui et fusionner avec lui.
Etoiles binaires
Dans un système stellaire binaire, deux étoiles tournent l'une autour de l'autre chacune tourne en fait autour de leur centre de gravité commun. Cette configuration
est très fréquente, la moitié environ des étoiles de l'Univers formant des systèmes
binaires avec une voisine ; notre  est une exception.
Lorsque l'une des étoiles est une étoile ordinaire, naine comme le  ou plus
grande, que les deux étoiles sont proches, et que l'autre étoile est une naine
blanche, une étoile à neutrons ou un trou noir, l'étoile très dense attire si fortement la
matière de l'étoile ordinaire qu'elle en détache continuellement des morceaux qui
tombent sur elle en décrivant une spirale : elle « dévore » l'étoile normale,
grossissant de ce fait continuellement. Le schéma ci-dessous, dû à la NASA
http://antwrp.gsfc.nasa.gov/apod/image/9912/accretiondisk_hst_big.gif, illustre ce
phénomène.
A force de grossir, une naine blanche peut finir par s'effondrer en étoile à
neutrons, et une étoile à neutrons peut s'effondrer en trou noir.
303
Etoile très dense d'un système binaire « mangeant » sa compagne :
la matière arrachée tombe en formant un disque d'accrétion
Cisaillement gravitationnel
La force d'attraction exercée par un astre effondré sur un corps voisin varie très
rapidement d'un point à l'autre de ce corps. Un corps pesant M' kg situé à x mètres
du centre de gravité d'un astre effondré pesant M kg subit une force d'attraction
F(x) = GMM'/x2. Lorsque la distance x varie, la force varie comme la dérivée de la
fonction F(x) précédente, dF/dx = -2GMM'/x3, fonction en "1/d3".
Exemple : supposons un homme qui franchit les pieds en avant l'horizon d'un trou
noir de masse M = 10 M, situé à x = 30 km de son centre. Entre ses pieds et sa
tête, sur une distance de 1.7 m, chaque kg de son corps subit une différence de
force d'attraction donnée par dF = (-2GM/x3)dx = 1.7 107 kgf, c'est-à-dire 17 000
tonnes ! La traction gravitationnelle étant supérieure sur les pieds à ce qu'elle est sur
la tête, le pauvre homme est littéralement déchiqueté par étirement. Et il est aussi
écrasé par compression dans les deux directions perpendiculaires à son
déplacement, son volume total demeurant constant.
Heureusement (si l'on peut dire dans ces circonstances tragiques !) la torture du
pauvre homme est de courte durée, car sa chute dans le trou est extrêmement
rapide du fait de l'énorme attraction gravitationnelle, environ 150 milliards de g !
On appelle ce phénomène cisaillement gravitationnel. Il détruit toute matière tombant
sur un astre effondré, y compris chaque molécule, chaque atome et même chaque
noyau atomique, incapables d'y résister. Ce phénomène est le même, à l'ampleur
près, que celui des marées terrestres, où l'attraction de la Lune (ou du ) est plus
forte sur la mer du côté Lune (ou ) que sur la Terre, elle-même plus attirée que la
304
mer du côté opposé. En exagérant l'effet de ces différences d'attraction, on obtient le
schéma suivant :
Mer
Lune
Terre
3.5.11.7.7 Déroulement dans le temps de la chute d'un corps vers un trou noir
En oubliant le cisaillement ci-dessus, un observateur A en train de tomber dans un
trou noir ne remarquerait rien de particulier sur la montre qu'il porte lors du
franchissement de l'horizon. Par contre, un observateur B extérieur à l'horizon verrait
A qui tombe se déplacer de plus en plus lentement, et devenir immobile en arrivant
sur l'horizon, car sur cette surface le temps vu de l'extérieur ne s'écoule plus. Ainsi,
pour l'observateur extérieur B, rien n'entre dans un trou noir, tout s'arrête sur son
horizon : c'est un des paradoxes de la Relativité Générale [328].
En fait, l'image que A donnerait à B lors du franchissement de l'horizon deviendrait
rapidement de moins en moins lumineuse et nette pour B, car elle proviendrait d'une
partie de plus en plus petite de l'image de A, restée à l'extérieur de l'horizon : B
verrait A disparaître par affaiblissement de son image ; et comme le trou noir est
invisible, B ne verrait bientôt plus rien, ou seulement le rayonnement émis par la
matière qui continue à tomber en spirale dans le trou noir et s'échauffe par
compression et frottement en tournant autour de son horizon.
3.5.11.7.8 Irréversibilité des fusions stellaires et d'un effondrement gravitationnel
La fusion de l'hydrogène en hélium dans une étoile est irréversible, car une
éventuelle fission de l'hélium en hydrogène serait contraire aux exigences
thermodynamiques de croissance de l'entropie. En fait, si la masse disponible et la
température atteinte le permettent, une étoile est le siège de fusions successives se
terminant par un noyau de fer, élément si stable que la nature ne peut en créer de
plus lourds en dehors des colossales énergies des explosions de supernova. Donc
toutes les réactions nucléaires de la vie d'une étoile sont irréversibles, y compris
celle de son éventuelle explosion en supernova.
Un effondrement gravitationnel est à l'évidence aussi irréversible. Une naine blanche,
une étoile à neutrons ou un trou noir ne peuvent que grossir tant qu'il y a de la
matière à "dévorer" à proximité, et "attendre" indéfiniment quand il n'y en a pas (on
305
parle alors d'état stationnaire). Deux de ces astres peuvent aussi fusionner lors d'un
choc.
L'irréversibilité du phénomène d'effondrement gravitationnel respecte les lois de
conservation :

La masse-énergie de l'astre effondré est celle de la matière d'origine (compte
tenu de son énergie cinétique et de son énergie potentielle de gravitation) moins
l'énergie perdue par rayonnement lors de l'effondrement, dans le disque
d'accrétion, et par ondes gravitationnelles ;

Le moment cinétique de l'astre effondré est celui de l'astre ou de la matière
absorbée d'origine ; mais comme l'astre effondré a un diamètre beaucoup plus
petit que l'étoile d'origine, il tourne sur lui-même beaucoup plus vite ;

La charge électrique de l'astre effondré est celle de l'astre ou de la matière
absorbée d'origine, aux atomes éventuellement ionisés.
3.5.11.7.9 Caractéristiques d'un trou noir
En principe, un trou noir stationnaire (c'est-à-dire qui n'est pas en train d'absorber de
la matière) se contente de 3 paramètres pour sa description : deux nombres réels
représentant sa masse et sa charge électrique, et un vecteur représentant son
moment cinétique. Donc lorsqu'un trou noir atteint la stabilité après absorption d'une
masse de matière, il ne garde aucune mémoire de celle-ci en dehors de la variation
de ces 3 paramètres : on ne sait plus rien de la forme, la couleur, la nature des
atomes, molécules, etc. des corps et rayonnements qui ont traversé son horizon !
Cette simplicité d'un trou noir est rappelée par un dicton bien connu des physiciens :
"Un trou noir n'a pas de cheveux"
Ce dicton veut dire qu'en principe un trou noir n'a pas de paramètre descriptif
supplémentaire (de cheveu) en plus des trois cités. Deux trous noirs de mêmes
masses, charge électrique et moment cinétique sont identiques.
D'après la thermodynamique, un corps à une température absolue non-nulle devrait
rayonner ; inversement, s'il rayonne sa température absolue est non-nulle.
Température d'un trou noir
D'après ce qui précède, un trou noir absorbe tout, matière et rayonnement, et ne
restitue rien ; en particulier il ne rayonne pas. D'après la thermodynamique, sa
température doit donc être très proche du zéro absolu. C'est le cas, en effet, pour un
observateur très éloigné de son horizon : celui-ci mesure sur cet horizon une
température absolue inversement proportionnelle à la masse M du trou noir. Plus un
trou noir est lourd, plus il est froid et plus il absorbe tout rayonnement, car par rapport
à lui toute matière est plus chaude. Mais plus l'observateur s'approche de l'horizon,
plus la température qu'il mesure augmente, et sur l'horizon elle est infinie !
Entropie très élevée d'un trou noir
En thermodynamique classique (où on néglige l'effet de la gravitation), lorsque de la
matière se concentre en une dimension plus petite (exemple : lorsqu'un gaz se
liquéfie) et que sa structure se simplifie, son entropie diminue. Dans le cas de
306
l'effondrement de matière vers un trou noir, c'est l'inverse : l'entropie du trou noir
augmente. C'est là un effet de sa masse et de l'énergie cinétique due à la gravitation.
Cet effet est conforme au 2 ème principe de la thermodynamique, qui veut que toute
transformation irréversible s'accompagne d'une croissance de l'entropie.
En effet, la matière qui s'effondre dans un trou noir y apporte, en plus de son
énergie de masse E = mc2, une énergie cinétique due à la transformation de son
énergie potentielle de gravitation lors de la chute. En principe cette énergie ne
peut plus s'échapper du trou noir, par rayonnement ou autrement ; en fait nous
verrons qu'elle s'échappe par rayonnement de Hawking.
La sphère horizon d'un trou noir ne peut que croître lorsque celui-ci absorbe de la
matière. Du fait de cette matière absorbée, l'entropie d'un trou noir est très élevée.
Cela rend sa formation irréversible, dans la mesure où elle devrait augmenter encore
pour qu'il se désagrège tout en respectant le deuxième principe de la
thermodynamique. [25] Précisons tout cela avec quelques formules.
Selon [133], la notion d'entropie d'un trou noir peut être interprétée comme suit :

C'est le nombre de ses états internes de matière et de gravitation ;

C'est l'entropie de la relation entre degrés de liberté à l'intérieur et à l'extérieur de
la sphère horizon ;

C'est le nombre d'états gravitationnels de la sphère horizon ; etc.
Quelques formules d'un trou noir
L'aire de l'horizon d'un trou noir sphérique augmente comme le carré du rayon R du
trou noir, lui-même proportionnel à la masse. Donc l'aire de la sphère horizon d'un
trou noir sphérique augmente comme le carré de sa masse. Donc l'entropie du trou
noir, proportionnelle au quotient de la masse par la température, doit être
proportionnelle à l'aire de son horizon.
La formule exacte reliant l'entropie S d'un trou noir et l'aire A de son horizon est,
d'après [133] :
S
A kc3
( )
4 G
Dans cette formule, à part l'aire A, il n'intervient que des constantes :

k est la constante de Boltzmann, k = 1.38066 .10-23 joule par degré K ;


c est la vitesse de la lumière, c = 299 792 458 m/s ;

ä = h/2 = 1.05 .10-34 joule.seconde.
G est la constante universelle de gravitation, G = 6.67 .10-11 Nm2/kg2 ;
307
Dans le cas d'un trou noir à horizon sphérique, A = 4R2, où R est le rayon de
l'horizon, donc l'aire A se calcule en fonction de la masse M par la formule :
A
8G 2 2
M
c4
Donc l'entropie S du trou noir se calcule en fonction de sa masse par la formule :
S
2kG 2
M
c
Lorsqu'un trou noir absorbe de la matière son entropie augmente ; quand il rayonne
elle diminue.
La formule ci-dessus montre que lorsque deux trous noirs se rencontrent et
fusionnent, l'entropie résultante est supérieure à la somme de leurs entropies
respectives, puisqu'elle est proportionnelle au carré de la somme de leurs masses.
Lorsqu'au centre d'une galaxie il y a un énorme trou noir de 1 milliard de M, son
entropie S est 1 milliard de milliards de fois celle d'un trou noir de 1 M, et son
entropie par unité de masse S/M - qui est proportionnelle à la masse M - est 1
milliard de fois celle du trou noir de 1 M.
En fait, la perte d'information lorsque de la matière ou du rayonnement franchit
l'horizon d'un trou noir est affectée par la Relativité Générale :

Pour un observateur tombant dans le trou, le temps s'écoule comme d'habitude,
il n'y a pas de perte d'information.

Pour un observateur à l'extérieur de l'horizon, toute chute de matière ou
absorption d'onde électromagnétique semble s'arrêter à l'horizon. Elle est
irréversible. Il y a croissance de la masse, de rayon d'horizon et de l'entropie du
trou noir. Mais l'information d'origine de ce qui est tombé n'est pas perdue, elle
est incorporée à celles tombées précédemment ; et nous pensons aujourd'hui
que l'information d'un trou noir est stockée sur sa sphère d'horizon,
conformément au principe holographique [304].
Lors de la chute dans un trou noir, le déterminisme d'un observateur qui participe à la
chute n'est pas le même que pour un autre qui reste à l'extérieur de l'horizon : les
événements s'enchaînent différemment, les situations décrites par leurs états sont
tout autres. C'est là un effet de la Relativité Générale.
Remarque
On connaît des propriétés d'ensemble d'un trou noir, comme la proportionnalité entre
l'aire de son horizon et son entropie. Mais on ne sait en déduire le détail. Tout se
passe comme si, dans l'exemple du lanceur à 10 000 pièces d'importance vitale, on
savait que l'entropie est un nombre de 31 chiffres en base 10 sans connaître sa
valeur, donc celles des bits qui décrivent l'état de chacune des10 000 pièces. C'est
pourtant ces bits-là qu'il faut connaître pour décider où il faut œuvrer pour améliorer
les chances de succès du lanceur.
308
3.5.11.7.10 Et en plus, un trou noir s'évapore !
Source : [327] pages 283 et suivantes.
Les travaux de Stephen Hawking et quelques autres chercheurs ont montré que des
particules s'échappent d'un trou noir selon le mécanisme d'apparition de paires de
particules, qui emprunte de l'énergie au trou noir selon le principe d'incertitude de
Heisenberg. Mais contrairement au premier cas des fluctuations particuleantiparticule que nous avons étudié, un phénomène de fluctuations d'énergie
cinétique existe aussi et explique qu'un trou noir "s'évapore" : on dit qu'il émet un
rayonnement de Hawkins. Un trou noir n'est donc pas complètement noir !
Lorsque le trou noir s'évapore ainsi peu à peu, il restitue de l'information qu'il détenait
à partir de matière et d'énergie absorbée et son entropie diminue. En fait, cette
évaporation est extrêmement lente, pouvant durer des centaines de milliards
d'années, et n'accélère que lorsque le trou noir est devenu très petit.
En outre, les particules émises par un trou noir s'en éloignent en s'opposant à son
formidable champ gravitationnel. Pour un observateur éloigné leur longueur d'onde
augmente, il les voit donc d'autant plus froides que la masse du trou noir est grande ;
c'est ainsi qu'un trou noir de la masse du  est vu, de loin, avec une température de
moins de 10-6 degré K, inférieure aux 2.7 degrés K du fond diffus cosmologique.
Nous sommes loin du déterminisme de Newton et Laplace !
3.5.11.7.11 Quantité d'information dans un volume délimité par une surface
Source : [327] pages 289 et suivantes
Considérons un volume quelconque, de taille fixe et contenant une quantité de
matière fixe sous n'importe quelle combinaison de formes : objets solides, liquides et
gaz. Soit S0 l'aire de la surface qui l'enveloppe. Exprimons les aires en unités de
Planck (carrés dont le côté est égal à la distance de Planck, 1.6 .10-35 m). Puisqu'un
tel carré est la plus petite surface qui a un sens dans notre physique, admettons qu'il
puisse contenir la plus petite quantité d'information possible, 1 bit. Et puisque
l'entropie d'un trou noir est proportionnelle à l'aire S de sa sphère horizon (et non pas
au volume de cette sphère), admettons qu'exprimée en bits elle est égale à S en
unités de Planck.
Lorsqu'un trou noir se forme par effondrement de matière, le volume de sa sphère
horizon est nécessairement plus petit que le volume initial de cette matière ; et l'aire
de la sphère horizon, S, est inférieure à celle, S0, de l'enveloppe du volume initial. Or,
d'après le 2ème principe de la thermodynamique, l'entropie du trou noir est supérieure
à celle de la matière dont il est issu. D'où le théorème :
La quantité d'information contenue dans une région de l'espace est inférieure à
celle de l'horizon du trou noir virtuel (mesurée en unités de Planck) que sa
matière pourrait créer en s'effondrant.
(La taille minuscule de la distance de Planck fait qu'un bit d'information occupe
2.5 .10-70 m2 de la sphère horizon. Une telle sphère a donc une capacité de
stockage colossale, même pour de petits volumes de matière : l'information d'un
disque de 1 TB, contenant environ 1013 bits, tiendrait dans une sphère d'aire
2.5 .10-57 m2.)
309
Puisque toute l'information d'un volume d'espace tient dans la sphère horizon d'aire
S de son trou noir virtuel, elle peut à fortiori tenir dans la surface d'aire S 0 qui
l'enveloppe, car S0 > S. D'où un deuxième théorème :
L'information contenue dans une région de l'espace tient dans toute surface qui
l'enveloppe.
3.5.11.7.12 Surface nécessaire pour décrire une évolution - Principe holographique
Pour décrire l'évolution d'un objet physique, il faut décrire toutes les informations de
son état initial à l'instant t0 et les lois d'évolution qui s'appliquent. Considérons l'état
qui résulte de cette évolution à l'instant t 1 > t0. Si toutes les informations sont codées
sous forme numérique et les lois d'évolution sont décrites par des programmes
d'ordinateur, l'évolution de l'objet est représentée par l'exécution informatique de ces
programmes.
(Nous supposons pour cela que toutes les lois physiques étant déterministes, on
peut les modéliser parfaitement sur un ordinateur. C'est une position théorique,
qui suppose que toutes lois physiques sont connues ainsi que les programmes
correspondants et des méthodes de représentation numérique convenables, qu'il
n'y a pas de situation de non-calculabilité ou d'imprécision comme le chaos, et
qu'on ne tente pas de représenter des phénomènes non déterministes comme
les fluctuations quantiques.)
L'ensemble des informations qui décrivent l'évolution entre les instants t0 et t1 est
alors celui d'un certain volume minimum d'espace physique V contenant l'objet dans
tous les états nécessaires. D'après les théorèmes précédents, ces informations
peuvent être contenues dans une surface S entourant le volume, surface qui
constitue le domaine de définition des données du modèle.
Calculer l'évolution avec les lois physiques habituelles appliquées dans le volume
physique réel V peut donc, en théorie, être remplacé par un calcul dans une surface
S contenant les données-images en format numérique. La projection de l'espace V
dans la surface S ressemble à une projection holographique d'une image 3D d'un
volume sur une plaque photographique 2D. La validité théorique de cette projection
est postulée par le Principe holographique [304]. Selon [327] page 300 et suivantes,
la Théorie des cordes met en œuvre explicitement le Principe holographique pour
simplifier les calculs. Cette théorie est très prometteuse, mais pas encore vérifiée par
des mesures physiques début 2014.
3.5.11.8
Le Big Bang, phénomène irréversible
Depuis l'invention du terme, on a appelé « Big Bang » le commencement de
l'Univers, il y a 13.8 milliards d'années. Il était alors très petit et il a commencé son
expansion, qui se poursuit toujours.
On pensait que le Big Bang avait été suivi, une fraction de seconde après, par une
très courte période d'expansion explosive des milliards de fois plus rapide, l'inflation,
elle-même suivie par l'expansion actuelle, bien plus lente. Nous savons depuis peu
qu'il n'en est rien : l'inflation a précédé le Big Bang (détails : [313]). Dans ce texte et
par respect des habitudes, l'expression Big Bang désignera toujours le début de
310
l'expansion actuelle il y a 13.8 milliards d'années, car la véritable naissance de
l'Univers, avant l'inflation, n'a pas de nom particulier.
L'expression Big Bang est tellement connue - et la phase d'inflation si peu connue que la plupart des auteurs qui connaissent l'inflation la considèrent comme le début
du Big Bang et ne parlent donc que de ce dernier.
L'inflation
(Important : pour comprendre la suite voir : [313])
Nos connaissances de physique (2014) nous permettent de comprendre, après
l'instant initial de l'Univers, l'enchaînement de l'inflation, puis du Big Bang, puis de
l'expansion de l'Univers. Entre le temps zéro et l'inflation, nos lois physiques ne
s'appliquent pas, par exemple parce que la force de gravitation est quantifiée. Il y a
eu, avant le Big Bang, un très court moment (de l'ordre de 10-35 seconde) appelé
inflation, pendant lequel la dimension de l'Univers a augmenté infiniment plus vite
que la vitesse de la lumière, son diamètre étant multiplié par un facteur colossal de
l'ordre de 1078 ! Et pendant cette croissance exponentielle, de la matière-énergie
s'est créée à partir d'une baisse de l'énergie potentielle.
Sa taille croissant après le Big Bang, l'Univers s'est refroidi, tout simplement parce
que sa densité d'énergie a diminué. La longueur d'onde des photons lumineux
porteurs d'énergie en train de se déplacer a augmenté du fait de la dilatation de
l'espace (ils se sont « dilatés »).
Voici une interprétation du Big Bang proposée par Ilya Prigogine dans [26] page
191 :
"Nous considérons le Big Bang comme le processus irréversible par excellence.
L'irréversibilité résulterait de l'instabilité du pré-univers, instabilité induite par les
interactions entre la gravitation et la matière. Dans cette perspective, notre
univers serait né sous le signe de l'instabilité."
Bibliographie sur les trous noirs et le Big Bang : [136].
Voir aussi la théorie de la gravitation quantique.
3.5.12 Univers à plus de 4 dimensions
Notre Univers a trois dimensions d'espace et une de temps formant le continuum
espace-temps décrit par la Relativité Générale. Certaines théories supposent que
l'Univers a d'autres dimensions, 10 ou 11 en tout, par exemple. Mais notre cerveau et
nos instruments étant incapables de « voir » ces autres dimensions, nous ne
pourrions avoir de leur existence que des preuves indirectes, de la même nature que
les preuves données par la Mécanique quantique et l'électrodynamique quantique
concernant les invisibles particules atomiques et subatomiques.
Si une théorie décrivant un Univers à plus de 4 dimensions faisait une prédiction
physique vérifiable dans notre Univers et que rien ne contredit, nous pourrions la
considérer comme vraie jusqu'à plus ample informé.
C'est ainsi qu'une théorie actuelle tente d'expliquer la conversion automatique de
neutrinos-électrons en neutrinos-muons et réciproquement par un parcours à travers
311
une dimension externe à notre Univers classique. Si une expérience physique
confirme cette théorie alors qu'aucune de ses prédictions et aucune autre expérience
ne la contredit, elle peut être considérée comme vraie au moins provisoirement.
Du point de vue philosophique, il faut donc interpréter l'affirmation « nous ne saurons
jamais rien sur l'extérieur de notre Univers » en précisant que le mot « extérieur »
désigne une région de l'espace-temps « dont le contenu n'a, avec l'Univers qui nous
est accessible, aucune relation de causalité décrite par une loi » ; il n'y a pas, par
exemple, de transmission d'onde électromagnétique ou gravitationnelle susceptible
de transmettre de l'information.
3.5.13 7e extension du déterminisme : Relativité, écoulement du temps
Ecoulement du temps
La notion même de déterminisme régissant les évolutions repose sur l'écoulement du
temps, sans lequel elle ne se conçoit pas. Or la Relativité restreinte [49] nous
apprend que pour deux observateurs en mouvement l'un par rapport à l'autre le
temps s'écoule à des vitesses différentes et la notion de simultanéité n'a plus la
signification habituelle.
Plus grave encore, il y a des situations où, pour un observateur situé au point M,
l'événement A précède l'événement B, alors que pour un observateur situé au point
P c'est l'événement B qui précède l'événement A. Lorsque l'observateur en M aura
connaissance de l'événement A il ne saura pas encore que B aura lieu, alors que
lorsque l'observateur en P saura que B a eu lieu il ne saura pas encore que A aura
lieu ! (Explication).
Dans ces conditions, que deviennent la causalité et le déterminisme ? Ne
pourrait-on considérer que la dimension temps joue le même rôle que les trois
dimensions d'espace dans le continuum espace-temps de la géométrie de
Minkowski, et donc que la certitude des deux événements A et B était acquise
d'avance pour un observateur extérieur à cet espace à 4 dimensions ?
C'est ce qu'Einstein avait conclu selon [130], admettant alors le déterminisme
philosophique [200], qui prétend que la totalité du passé et de l'avenir forme une
chaîne de causalité unique et qu'il n'existe aucun écoulement du temps. Mais
pour Kant, pour moi, comme pour beaucoup d'autres la réponse est non : se
placer à l'extérieur de l'espace-temps est comme se mettre à la place de Dieu,
c'est une spéculation pure, qu'aucun raisonnement rationnel ne peut justifier,
exactement comme l'existence de Dieu ; nous savons cela depuis Kant. En
outre, l'irréversibilité prouvée de certains phénomènes comme la croissance de
l'entropie impose d'admettre que le temps s'écoule.
De son côté, le principe si intuitif de l'additivité de deux vitesses [36] est de moins en
moins valable au fur et à mesure qu'une au moins des vitesses approche celle de la
lumière. Enfin, la vitesse d'un corps matériel pesant accéléré peut approcher celle de
la lumière, c, mais ni la dépasser ni même l'atteindre, tant pis pour les auteurs de
science-fiction ; seules les particules sans masse comme les photons se déplacent à
la vitesse de la lumière - et elles ne peuvent jamais aller moins vite ou plus vite.
(Remarque : la vitesse de la lumière dépend du milieu où elle se propage ; celle
qu'on désigne habituellement par c est la vitesse dans le vide.)
312
De son côté, la Relativité Générale [328] montre que lorsqu'un mouvement entre
deux points A et B traverse un champ gravitationnel, la vitesse d'écoulement du
temps change par rapport à un mouvement entre les mêmes points ne traversant
pas ce champ, car sa trajectoire est autre. En outre, la courbure de l'espace
changeant du fait du champ, la lumière s'y propage selon une trajectoire différente et
l'unité de longueur en un point change avec le champ de gravitation en ce point.
On cite souvent le « paradoxe des jumeaux », appelé aussi « paradoxe du
voyageur de Langevin ». Considérons deux jumeaux, Pierre et Paul. Pierre reste
sur Terre pendant que Paul part (et voyage à une vitesse inférieure à celle de la
lumière, bien entendu). Paul décrit une certaine trajectoire (ligne d'univers dans
l'espace-temps de Minkowski) qui finit par le ramener au point de départ sur
Terre, où Pierre l'attend. Les deux jumeaux constatent alors que Paul, le
voyageur, a vieilli moins que Pierre : le temps s'écoulait plus lentement pour Paul
que pour Pierre ! (Voir le raisonnement et le dessin explicatif.)
La différence de vitesse d'écoulement du temps entre deux observateurs en
mouvement l'un par rapport à l'autre est une caractéristique importante du
déterminisme de la Relativité.
Equivalence masse -énergie
La Relativité fournit une équation que tout le monde connaît :
E = mc2
Cette formule pose l'équivalence de la masse et de l'énergie, qui sont deux aspects
distincts d'une même réalité. La masse peut se transformer en énergie dans une
bombe atomique et dans la chaîne de réactions qui transforment de l'hydrogène en
hélium dans le Soleil, en convertissant de la masse en énergie calorifique (agitation
thermique) et lumineuse (photons). Et à part dans les particules de masse nulle
comme le photon [117], porteuses d'énergie et toujours en mouvement à la vitesse
de la lumière, l'énergie a aussi, toujours, une masse associée : selon l'expérience, on
mettra en évidence la masse, l'énergie ou les deux.
Exemple : considérons un ressort au repos, c'est-à-dire ni comprimé ni tendu.
Pesons-le avec une grande précision : nous trouvons une masse m.
Comprimons-le en y emmagasinant une énergie mécanique potentielle E, qui
pourrait se libérer en poussant un autre corps si on lâchait le ressort. Après
compression, une seconde pesée très précise du ressort fait apparaître une
masse m' telle que :
E
m'  m  2
c
La masse m' est plus lourde que m ; l'énergie potentielle E emmagasinée dans
le ressort est détectée par la balance sous forme de masse supplémentaire !
Pour comprendre pourquoi on ne s'était pas aperçu expérimentalement de cette
équivalence entre énergie et masse avant la publication de la théorie de la
Relativité Restreinte par Einstein en 1905 [49], il faut savoir qu'un gros ressort de
suspension de train, comprimé de 10 cm par une force de 1 tonne ne voit sa
313
masse augmenter que de 10-5 microgramme. Mais à une échelle plus grande, le
Soleil (diamètre : 1.4 million de km, masse : 2 1027 tonnes) perd chaque seconde
environ 4.3 millions de tonnes d'hydrogène transformé en rayonnement.
L'équivalence de la masse et de l'énergie, qui n'a rien d'intuitif, est une raison
supplémentaire d'enrichir la définition du déterminisme pour prendre en compte la
Relativité. Elle nous oblige à reformuler le principe de conservation de la masse de la
physique newtonienne en conservation de la somme masse + énergie. Pour plus de
détails, notamment la conservation de l'impulsion, voir plus bas.
La Relativité affecte aussi la masse d'un corps, qui n'est pas la même pour un
observateur fixe par rapport à lui ou un observateur en mouvement. Elle affecte la
durée de vie d'une particule instable en mouvement, qui paraît plus courte pour un
observateur accompagnant la particule que pour un observateur fixe.
Sans la théorie de la Relativité, nous n'aurions ni l'énergie atomique (E = mc2), ni
une astronomie précise, ni le positionnement GPS à environ un mètre près, ni
même une compréhension du magnétisme (qui est un effet relativiste d'un
champ électrique sur des charges en mouvement)…
On peut multiplier ce genre d'exemples. Or le déterminisme traditionnel suppose un
espace homogène et isotrope sans courbure. Il suppose aussi un temps absolu, le
même pour tous les observateurs, fixes ou en mouvement, champ gravitationnel ou
pas. Ce déterminisme est celui des lois de Newton [103] [110] et de la philosophie de
Kant ; il convient pour la plupart des phénomènes de la vie courante, mais doit être
étendu dès que les vitesses, les accélérations ou les champs de gravitation exercent
une influence mesurable, c'est-à-dire dès que la Relativité s'impose pour avoir de la
précision.
L'extension du déterminisme imposée par la Relativité traduit le fait que la causalité
elle-même est extrêmement différente de celle dont on a l'habitude, selon la manière
dont la distance physique entre deux événements se compare au temps mis par la
lumière à la parcourir : l'explication, simple à comprendre, est donnée plus bas.
Les notions de temps, de longueur, de masse, de plus court chemin (qui n'est une
ligne droite que dans un espace à courbure nulle, espace qui suppose l'absence de
champ gravitationnel) sont relatives, pas absolues. Contrairement à l'intuition et au
déterminisme traditionnel, les mesures correspondantes changent avec le lieu et la
gravité qui y règne, ainsi qu'avec le déplacement relatif de l'observateur.
3.5.13.1
Relativité et irréversibilité
Nous avons d'innombrables preuves, factuelles et incontestables, de l'existence de
phénomènes irréversibles, dont la Relativité ne remet pas en cause l'irréversibilité.
Exemple : la décomposition radioactive d'un atome, dont la Relativité peut mettre en
cause (pour les préciser) la position et l'instant, mais pas le fait qu'une fois
décomposé l'atome ne se reconstitue jamais.
Concernant une éventuelle relation entre Relativité et irréversibilité, voici ce qu'on lit
dans [26] page 193 :
"…la révolution associée à la relativité n'affecte pas nos conclusions
précédentes. L'irréversibilité, le flux du temps, conserve sa signification dans la
314
cosmologie relativiste. On pourrait même soutenir que l'irréversibilité joue un rôle
d'autant plus important que nous allons vers des énergies plus élevées, c'est-àdire vers les premiers moments de l'Univers."
3.5.13.2
Particules virtuelles. Electrodynamique quantique
La Mécanique quantique est non relativiste, en ce sens qu'elle suppose que la
gravitation n'a pas d'effet sur les masses, que les particules ne peuvent être ni
créées ni détruites et que leurs vitesses restent suffisamment faibles pour que
l'espace et le temps ne soient pas relativistes. Pour lever cette hypothèse, on a créé
l'électrodynamique quantique.
L'électrodynamique quantique fait la synthèse de
Relativité Restreinte et des équations de Maxwell
[123]. Cette théorie décrit mathématiquement les
chargées électriquement (électron, proton…) avec
avec d'autres particules chargées.
la Mécanique quantique, de la
de l'électrodynamique classique
interactions [18] des particules
un champ électromagnétique et
L'électrodynamique quantique constitue une des vérifications les plus précises des
postulats et méthodes mathématiques de la Mécanique quantique. Elle a été vérifiée
avec une précision extraordinaire dans de nombreuses expériences, par exemple en
fournissant la valeur du moment magnétique d'un électron avec une précision
relative de 10-8 [104]. Cette précision est celle qu'aurait une mesure de la distance
Paris-New York à quelques centimètres près !
Non seulement cette précision est une caractéristique intéressante du déterminisme
étendu en matière de physique quantique, mais l'électrodynamique quantique met en
lumière aussi d'autres aspects de la physique quantique. Ainsi, par exemple,
l'interaction entre deux particules chargées se fait par échange de « photons
virtuels », chacun représentant un quantum d'énergie. Ces photons [117] sont
virtuels car il n'existe aucun moyen de les capturer pour les voir. Ils se manifestent
en agissant comme des forces quantifiées qui transmettent leur énergie entre deux
particules mobiles en interaction, et dont le vecteur vitesse change de direction et de
grandeur lorsqu'elles émettent ou absorbent un tel photon. Ainsi donc, une force peut
agir entre deux particules, par exemple lors d'un choc, en transmettant un quantum
d'énergie ou plusieurs, et cette action est parfaitement déterministe dans le cadre
d'un déterminisme étendu prenant en compte des discontinuités quantifiées.
Autre ajout à la Mécanique quantique, l'électrodynamique quantique introduit, pour
chaque particule, une antiparticule de même masse et même spin, mais avec des
propriétés de charge électrique, moment magnétique et saveur opposées : le positon
correspond ainsi à l'électron, l'antiproton au proton, etc. Une particule qui rencontre
son antiparticule peut s'annihiler avec elle en libérant une énergie égale à la masse
disparue, conformément à la Relativité (ΔE = Δmc2). Inversement, un photon
d'énergie électromagnétique peut parfois se transformer en matière, par exemple en
une paire électron-positon. Enfin, un électron et un positon peuvent s'associer en un
atome appelé positronium, où le positon constitue le « noyau » autour duquel tourne
l'électron.
Mais, hélas, l'électrodynamique quantique est une science inachevée. Il y a des cas
où elle prédit des valeurs infinies, physiquement inacceptables. Ce problème a été
315
résolu dans des cas particuliers par une méthode appelée renormalisation, qui
consiste à prendre en compte l'interaction d'une particule chargée avec son propre
champ électromagnétique et à utiliser certaines astuces mathématiques. Le
problème de fond est que, malgré les succès et la précision de la partie achevée de
cette science, il reste des phénomènes inexpliqués sur lesquels les théoriciens
travaillent, comme une théorie quantique de la gravitation.
3.5.14 Attitude face au déterminisme
Nous avons vu depuis le début de ce texte à quel point le déterminisme scientifique
traditionnel doit nécessairement être étendu lorsqu'il s'agit de physique, et à quel
point il peut alors nous surprendre. Souvent, les raisonnements imposés par le
déterminisme étendu contredisent notre intuition ou nous obligent à comprendre le
monde à travers des équations ; souvent ils permettent plusieurs conséquences à
partir d'une cause unique, voire plusieurs conséquences distinctes existant
simultanément en superposition ; certains phénomènes sont réversibles, d'autres
non ; certains ont des modèles permettant l'inversion du sens du temps ; si on refuse
l'interprétation de Hugh Everett la décohérence fait intervenir du hasard, et il y a des
indéterminations, des instabilités et des précisions limitées. Enfin, parce que notre
connaissance a tant de lacunes, et parce que dans le domaine du vivant la pensée
n'est que partiellement déterministe, certains phénomènes sont inexplicables. La
discussion de certaines extensions du déterminisme traditionnel nécessaires pour
prendre en compte les avancées de la science est résumée ci-dessous. Voir aussi le
résumé des cas d'imprédictibilité.
On voit à présent pourquoi l'attitude honnête vis-à-vis des faits scientifiques
représentée par le déterminisme étendu dérange, en nous obligeant à remettre en
cause ce que nous croyons savoir, et en éloignant souvent notre représentation de la
réalité de ce que nos sens nous permettent d'appréhender et d'accepter
intuitivement.
Cette conclusion s'applique au déterminisme des sciences physiques, le seul que
nous ayons approfondi jusqu'ici. Mais une certaine forme de déterminisme régit aussi
les sciences de la vie et des sciences sociétales comme l'économie. Comme il s'agit
de sciences moins exactes, où les situations plus complexes mettent en jeu plus de
niveaux d'abstraction, plus d'interactions, plus de variables à chaque niveau et plus
d'imprécision pour chaque variable, et où les conclusions sont donc moins nettes et
la causalité elle-même plus floue, nous pouvons nous attendre à trouver ci-dessous
d'autres types de déterminisme.
Dans notre quête d'une meilleure compréhension du déterminisme, nous verrons
d'abord qu'on peut formuler des recommandations sur l'attitude à adopter face au
déterminisme étendu. Ces recommandations concluront cette première partie,
consacrée au déterminisme en physique. Après quelques réflexions sur les niveaux
d'abstraction, nous aborderons le déterminisme du vivant puis celui de la société
humaine.
316
3.5.14.1
Conséquences des lois de la nature sur le déterminisme
3.5.14.1.1 Validité des lois de la Mécanique quantique à l'échelle macroscopique
La Mécanique quantique, conçue à l'origine en tant qu'outil mathématique pour
modéliser les phénomènes de la physique à l'échelle atomique, est valable même à
l'échelle macroscopique (exemple de système de 144 km de long : voir [10]). A cette
échelle-là, les différences d'énergie entre états voisins sont minimes, du fait de la
petitesse de h et du quantum d'échange d'énergie par photon interposé h, ce qui fait
paraître continus la plupart des phénomènes.
En outre, à l'échelle macroscopique où les masses sont des millions ou des milliards
de fois plus importantes que la masse d'une particule atomique, les longueurs d'onde
de de Broglie  = h/mv et de Compton  = h/mc sont si petites que l'indétermination
sur les positions, vitesses, durées et énergies disparaît au profit du comportement
précis qui en est la limite, et que les fluctuations quantiques sont négligeables. Les
lois de Mécanique quantique sont valables aussi au niveau macroscopique, comme
le montre l'interprétation Multivers de Hugh Everett ([313]) qui élimine le phénomène
inexplicable de décohérence ; elles sont remplacées par les lois de la physique
macroscopique qui s'en déduisent (voir le principe de correspondance).
Il ne faut donc pas invoquer les fluctuations quantiques ou le principe
d'incertitude de Heisenberg pour expliquer que des neurones puissent s'exciter
de manière aléatoire, puis en déduire le caractère imprévisible de la pensée
humaine et son libre arbitre : à l'échelle d'un neurone, les phénomènes
quantiques sont si petits qu'ils sont négligeables. L'imprévisibilité de la pensée
vient d'abord de l'intervention du subconscient, ensuite de la complexité des
situations de la vie. Il est regrettable, par exemple, qu'un physicien se soit
ridiculisé et ait abusé de la crédibilité de certains en affirmant que la physique
quantique confirme la mystique orientale [175] !
Si on refuse l'interprétation de Hugh Everett, la Mécanique quantique a un problème
systématique de validité à l'échelle macroscopique, où des états superposés ne
peuvent exister, alors qu'ils le peuvent à l'échelle atomique tant qu'une mesure - ou
le temps (très court) qui passe - n'en a pas choisi un tout en éliminant les autres. A
l'heure actuelle, le comportement des mesures, qui ne retiennent à chaque fois
qu'une possibilité avec une certaine probabilité parmi les éléments d'un ensemble
prédéfini, est postulé par les axiomes 3 et 4 de la Mécanique quantique.
Ce choix arbitraire est légitimé à l'échelle atomique par d'innombrables
expériences et prévisions, mais seulement à cette échelle-là. La théorie qui explique
l'absence d'états superposés à l'échelle macroscopique est celle de Hugh Everett. Il
y a des expériences qui constatent le temps très court nécessaire à notre échelle
pour réduire la superposition à un état unique, soit par décohérence due au jeu
naturel d'interactions entre le système et son environnement [1], soit par
basculement de l'univers de l'expérimentateur dans l'état unique qu'il constate en fin
d'expérience.
L'absence d'états superposés à l'échelle macroscopique ne nous permet cependant
pas de remettre en cause l'équation d'évolution fondamentale de Schrödinger,
déterministe au sens scientifique traditionnel. Nous pouvons simplement postuler,
conformément aux expériences comme [1], que la décohérence qui affecte les
expériences où apparaissent des états superposées existe, est automatique et très
317
rapide. La conclusion, du point de vue déterminisme, est donc la possibilité, dans
certains cas, qu'une cause unique ait plusieurs conséquences possibles, dont après
un certain temps une seule se réalisera ou sera constatée à notre échelle. Voir aussi
l'interprétation arborescente du déterminisme de Hugh Everett.
Nous n'avons pas (en tout cas pas encore) de théorie satisfaisante pour prédire
combien de temps s'écoulera avant une décohérence ou un basculement d'univers :
nous ignorons où est située la frontière entre physique macroscopique et physique
quantique - s'il y en a une, nous avons seulement des exemples comme [1] et [10].
Nous savons aussi qu'à l'échelle macroscopique certains phénomènes ou
comportements observés à l'échelle atomique sont négligeables ou de durée trop
faible pour être observables [117] ; les équations et outils de la Mécanique quantique
peuvent alors être remplacés par ceux de la physique macroscopique, établis
directement ou qui s'en déduisent par passage à la limite, mais sont bien plus
pratiques à utiliser.
Exemple d'équivalence de loi de physique macroscopique et de théorèmes de
Mécanique quantique : dans sa thèse de 1942, le physicien prix Nobel Feynman
a montré l'équivalence du principe macroscopique de moindre action [62],
parfaitement déterministe au sens classique, et des théorèmes probabilistes sur
les fonctions d'onde de Mécanique quantique.
Principes de correspondance et de complémentarité
Il y a, entre les lois de la Mécanique quantique et les lois de la physique classique
(macroscopique) qui s'en déduisent, un principe de compatibilité appelé « principe de
correspondance ». Selon ce principe, lorsque le système considéré est assez grand
pour que les effets quantiques soient négligeables, les prédictions de la Mécanique
quantique doivent être les mêmes que celles de la physique classique pour toutes
les variables mesurables (appelées « observables ») de la Mécanique quantique qui
ont un équivalent limite en physique classique. La continuité de passage entre
Mécanique quantique et mécanique classique est due à l'élimination progressive des
imprécisions probabilistes de la Mécanique quantique par l'effet du nombre de
particules prises en compte, leurs variations se compensant de mieux en mieux.
Ce principe de correspondance est une conséquence :

De l'uniformité de la nature ;

Du fait que la nature ignore le concept d'échelle, abstraction humaine utilisée
pour représenter et comprendre les phénomènes.
Il y a aussi des règles mathématiques permettant de passer d'équations de la
physique classique à des équations à opérateurs non commutatifs de la Mécanique
quantique.
Remarques

L'existence du principe de correspondance n'interdit pas que certains
phénomènes n'apparaissent qu'en physique quantique. Cela n'a rien d'étonnant :
lorsqu'on regarde un objet au microscope, certains détails n'apparaissent qu'audelà d'un grossissement minimum ; en deçà, ils existent mais sont négligeables.
318
Exemple : la longueur d'onde de de Broglie  = h/mv devient trop petite pour que
son existence compte dès que la quantité de mouvement mv est celle de
quelques milliers d'atomes en mouvement.

Il y a des limites de précision en physique quantique sous des formes comme la
largeur d'un paquet d'ondes et la longueur d'onde de Compton, qui imposent un
caractère flou à certaines variables. Il y en a aussi en physique macroscopique,
par exemple en optique sous la forme du pouvoir séparateur d'un instrument
[211].
Le principe de correspondance est complété par le principe de complémentarité,
découvert en 1928 par Niels Bohr. Selon ce principe, le comportement de
phénomènes comme les électrons ou la lumière est tantôt corpusculaire, tantôt
ondulatoire, selon l'expérience ; il y a donc une dualité onde-particule. On ne peut
observer à la fois un comportement corpusculaire et un comportement ondulatoire,
ces deux comportements s'excluant mutuellement et constituant des descriptions
complémentaires des phénomènes auxquels ils s'appliquent.
Sensibilité de requins, raies et autres chondrichthyens aux champs électriques
Les comptes-rendus de recherches [234] montrent que certains poissons du groupe
des chondrichthyens ont un organe sensoriel permettant de détecter d'éventuelles
proies grâce au champ électrique émis par leurs cellules dans l'eau de mer. Cet
organe fonctionne même dans l'eau boueuse et dans l'obscurité. Sa sensibilité est
extraordinaire, puisque les chercheurs ont prouvé qu'il réagit parfois à des champs
d'environ 1 microvolt/mètre, et à des champs de moins de 1 microvolt/cm qui durent
au moins 2 millisecondes. Cette sensibilité est si considérable que nos appareils
électroniques modernes peinent à l'égaler. Le champ électrique détectable par ces
poissons équivaut à celui d'une pile de 4.5 volts dont un pôle tremperait dans l'océan
Atlantique en France et l'autre aux Etats-Unis.
Réponse d'une rétine à un photon unique
Les expériences citées dans [139] montrent qu'un seul photon de lumière visible,
avec son énergie incroyablement faible, suffit à provoquer une réponse rétinienne
chez un crapaud ou un homme. Le courant électrique correspondant à l'influx
nerveux est de l'ordre de 1 picoampère (1 pA = 10-12 A), suffisant pour que l'animal
ou l'homme ait conscience d'avoir vu l'éclair lumineux. De temps en temps, chez
l'homme, l'information n'est pas transmise par la rétine parce qu'un seuil empêche la
prise de conscience de la lumière d'un photon unique, qui pourrait être due à un
« bruit », mais à partir de 7 photons environ la transmission est systématique.
Ces expériences montrent que parfois un phénomène d'énergie minuscule, relevant
de la physique quantique, peut être amplifié par un mécanisme physiologique jusqu'à
une échelle macroscopique permettant sa prise en compte par un être vivant. On
peut aussi rappeler l'existence de dispositifs artificiels permettant de détecter un
photon unique : les grands télescopes munis de cellules photoélectriques peuvent
donner des images de galaxies situées à plus de 13 milliards d'années-lumière, bien
que l'énergie électromagnétique reçue diminue comme le carré de la distance.
319
Conclusion
D'une part, la Mécanique quantique est valable même pour des systèmes grands et
complexes ; d'autre part, la nature amplifie certains phénomènes à l'échelle atomique
jusqu'au niveau macroscopique.
Conséquence philosophique : le déterminisme étendu de la Mécanique quantique
s'applique également aux processus à l'échelle humaine. Nous en avons vu un
exemple : les « accidents » de réplication du génome (simples choix de solutions de
faible probabilité dans la création de liaisons moléculaires) produisent de temps en
temps des espèces vivantes nouvelles, qui perdurent lorsqu'elles s'avèrent viables
dans leur environnement. Nous en avons aussi une explication, pour le seul cas où
le hasard semblait intervenir dans le choix d'une solution dans une superposition,
l'interprétation Multivers de Hugh Everett.
3.5.14.1.2 Le déterminisme étendu peut abolir les distances et les durées
L'expérience de séparabilité relatée dans [10] a une conséquence importante en
matière de déterminisme étendu : l'abolition possible des distances et des durées
dans certaines circonstances.
En effet, le devenir de deux photons intriqués A et B, produits ensemble et décrits
par un état quantique commun, est déterminé en commun, en ce sens que ce qui
arrive à l'un ne peut pas ne pas retentir sur l'autre, quelle que soit sa distance : la
conséquence d'une mesure du photon A est propagée instantanément au photon B,
à une vitesse infinie - donc plus rapide que celle de la lumière. On peut interpréter
cela comme le fait que les deux photons intriqués distants forment un système global
(il y a non-séparabilité), parce qu'ils ont et conservent un état quantique commun,
mais aussi comme le fait qu'en cas de non-séparabilité le déterminisme agit à
distance en un temps nul et avec un transfert d'énergie nul.
L'action déterministe à distance par non-séparabilité ne propage pas, non plus,
d'information : elle ne peut servir à transmettre instantanément un message ; la
corrélation préservée se constate seulement après coup.
Sachant que dans une des expériences [10] la distance entre les photons A et B a
été de 144 km, chacun est en droit d'être stupéfait et de se sentir obligé de remettre
en question quelques-unes de ses représentations mentales du monde et de ses
lois…
La non-séparabilité est une conséquence de l'absence de variables cachées, c'est-àdire du fait que l'état quantique d'un système décrit tout ce qu'on peut en savoir ; et
quand un système de particules fait un tout son unité n'est pas détruite par sa
déformation, mais seulement par une action sur l'une des particules.
3.5.14.1.3
Multiplicité des conséquences possibles
Cas de la nature
Une situation de départ donnée ("cause", représentée par son vecteur d'état en
Mécanique quantique ou un point dans son espace des phases) peut produire une,
plusieurs, ou une infinité de situations à l'arrivée ("conséquences"), équiprobables ou
non, dont une seule est ensuite choisie au hasard, immédiatement ou non. Ce
320
phénomène bien connu à l'échelle atomique existe aussi à l'échelle macroscopique
(existence d'attracteurs et convergence d'états vers eux).
En suggérant une unicité avant ou après une évolution, les termes « situation » et
« état » d'un système sont trompeurs. La multiplicité des conséquences doit aussi
être interprétée pour un système comme une pluralité des comportements possibles,
entre lesquels la nature opère un choix, immédiatement ou non. Le rôle du hasard
est réduit au choix d'un état final dans l'ensemble de ceux que les équations
déterministes rendent possibles (et qu'on appelle en Mécanique quantique "valeurs
propres" de l'opérateur qui les représente [278]). Et si on admet l'interprétation
Multivers de Hugh Everett, il n'y a jamais ni hasard ni décohérence : chaque
expérimentateur perçoit un seul système en fin d'expérience, le même qu'au début.
Exemples de pluralité de comportements possibles :

convergence vers des attracteurs multiples, notamment lorsque des espèces
vivantes apparaissent en tant que descendantes d'autres espèces ;

existence d'états cohérents multiples superposés.
Cas de l'homme : le libre arbitre
Il est impossible de distinguer entre une liberté transcendante à la disposition de
Dieu ou de l'homme (c'est-à-dire affranchie du déterminisme des lois de la nature), et
le choix sous influence d'un homme soumis à la réalité matérialiste et déterministe du
monde (sujet développé plus bas), notamment par l'intermédiaire de son
subconscient. Face à des choix multiples, si un homme a l'impression d'être libre, on
ne peut lui prouver qu'il a tort ; même conclusion s'il a l'impression d'être esclave de
contraintes externes ou d'une volonté divine qui décident pour lui.
L'affirmation par les spiritualistes « l'homme a un libre arbitre » suppose qu'il a
un esprit transcendant, immatériel et indépendant des lois physiques. Elle est
comme l'affirmation « Dieu existe » : infalsifiable [203], inutilisable rationnellement.
3.5.14.1.4 Imprévisibilité de l'évolution et de l'état final
L'état résultant d'une évolution déterministe peut être imprévisible ou imprécis, par
exemple du fait :

De l'existence pour chaque variable mesurée (appelée observable, opérateur
auto-adjoint) d'un ensemble prédéfini de valeurs possibles (les valeurs propres
de l'observable [278]) entre lesquelles la nature fait un choix aléatoire ;

De la multiplicité des solutions probabilistes des équations d'évolution de
Schrödinger, qui ont pour résultat des paquets d'ondes à l'origine d'imprécisions
sur des positions, des vitesses, etc. ;

D'une sensibilité aux conditions initiales (exemples) ;

Du franchissement par un paramètre d'une valeur critique entraînant un
changement de loi d'évolution par bifurcation dans l'espace des phases.
Voir :

Définition par rencontre de chaînes de causalité indépendantes - Hasard par
ignorance.
321

"Résumé des cas d'imprédictibilité" en fin de texte.
3.5.14.1.5 Difficulté de préciser la situation de départ ou le processus
Nous avons vu sur plusieurs exemples que le déterminisme peut agir à une échelle
locale ou globale ; toute prédiction basée sur le déterminisme doit donc tenir compte
de l'échelle à prendre en compte. Du reste, la notion même d'échelle est une
abstraction humaine.
Mais une difficulté apparaît pour appliquer les lois qui régissent le phénomène
pris en compte : il est souvent difficile et hasardeux de définir les circonstances
constituant la situation de départ et le processus d'évolution du système,
circonstances qui influent sur le choix de la loi d'évolution ou ses paramètres.
Exemple : les lois de la thermodynamique s'appliquent à un phénomène global
prenant en compte les milliards de molécules du gaz d'un cylindre, fermé par un
piston, qui peut échanger avec l'extérieur de la chaleur et du travail lors d'une
compression par déplacement du piston. Selon l'évolution qu'on prend en compte du
fait de la connaissance qu'on a du système et de ses échanges, on appliquera, par
exemple, une loi adiabatique (sans échange de chaleur) ou une loi isotherme (à
température constante), et l'évolution résultante prévue ne sera pas la même.
3.5.14.1.6 Impossibilité de remonter l'arborescence de causalité
Il est souvent impossible, en pratique, de remonter d'un état final à un état initial
comme le voudrait le déterminisme philosophique, par exemple pour la trajectoire
d'une molécule de gaz dans un récipient. Et l'irréversibilité est une autre cause
d'existence d'une flèche du temps.
En outre, il est souvent impossible, lorsqu'un phénomène paraît aléatoire comme
celui de l'exemple xn+1 = 4xn(1-xn) ci-dessus, de l'attribuer à une loi permettant des
prédictions, faute de pouvoir la deviner ou la déduire d'un raisonnement.
Par manque d'informations il est en général impossible, en pratique, à partir d'une
situation constatée, de reconstituer en pensée la situation dont elle est la
conséquence et l'évolution qui s'est produite. On connaît certains paramètres et
certaines règles de transformation, mais pas assez pour comprendre ce qui s'est
passé et pouvoir, à l'avenir, prédire les conséquences de causes similaires.
Dans son besoin inné de sens qui fait qu'il a horreur des incertitudes et du hasard,
l'homme a alors tendance à inventer une explication des évolutions et des situations
qu'il ne comprend pas. Il les attribue parfois à la volonté de Dieu, parfois à une liberté
prêtée à la nature d'agir sans cause ou sans respecter de loi, parfois au libre arbitre
de l'homme considéré comme non déterministe, etc. C'est ainsi, par exemple, que
naissent les idées préconçues et les superstitions.
L'exemple de la polémique à propos de l'évolution des espèces illustre cette
attitude : il y a encore de nos jours des millions de personnes qui nient
l'évolutionnisme darwinien et croient au créationnisme ; heureusement, le pape
Benoît XVI a reconnu le caractère scientifique de l'évolutionnisme, réservant le
rôle de Dieu à la création initiale du monde.
322
3.5.14.1.7 Irréversibilité
La radioactivité naturelle est un exemple de phénomène intrinsèquement irréversible,
contredisant par là le déterminisme philosophique. Il est pourtant inéluctable et
présente toutes les caractéristiques du déterminisme étendu :

C'est un phénomène prévisible à l'échelle globale d'un ensemble d'atomes ;

Condition nécessaire et suffisante : l'instabilité énergétique du noyau de chaque
atome, due à l'application des lois de la Mécanique quantique ;

Stabilité de la loi : le phénomène de radioactivité d'un élément de la classification
périodique (type d'atomes) est le même partout et à tout moment.
Le déterminisme philosophique est faux, et le déterminisme scientifique traditionnel
doit tenir compte de l'irréversibilité de certains phénomènes.
Irréversibilité en Mécanique quantique et dans les systèmes macroscopiques
Nous avons déjà signalé qu'en physique quantique toute mesure est irréversible ;
elle augmente l'entropie [25] du système mesuré. Il y a là une contradiction, puisque
l'approche même de la Mécanique quantique, basée sur son équation fondamentale
d'évolution déterministe, ne laisse aucune place à l'irréversibilité de la décohérence ;
l'équation de Schrödinger est valable du début à la fin d'une expérience, à condition
d'inclure dans le système observé l'expérimentateur et ses instruments (Hugh
Everett).
Dans [26], Ilya Prigogine a étudié l'irréversibilité en faisant appel à la théorie des
résonances d'Henri Poincaré et une extension de la Mécanique quantique basée sur
des statistiques d'état. Ce sujet est trop difficile pour être abordé dans ce texte, mais
ces travaux imposent une conclusion : l'irréversibilité donne au déterminisme une
définition et un comportement particulièrement complexes et non intuitifs, qui
handicapent les raisonnements scientifiques au point de les mettre souvent hors de
portée des non-spécialistes. Nous avons vu, par exemple, qu'il peut y avoir autoorganisation à l'échelle macroscopique, avec un choix imprévisible de structure.
3.5.14.1.8 Relativité
Nous avons vu ci-dessus et expliquerons plus en détail plus bas que la causalité à la
base du déterminisme traditionnel est fortement affectée par la Relativité ; sans
l'extension correspondante du déterminisme, certains raisonnements pourraient être
faux. Il est nécessaire que le déterminisme de l'équation de Schrödinger, équation
fondamentale de la Mécanique quantique, soit complété par une théorie relativiste
faisant intervenir la gravitation, nous l'avons déjà signalé.
3.5.14.1.9 Matérialisme et déterminisme des lois du vivant
En plus de leur besoin psychologique de sens, beaucoup d'hommes ne peuvent
accepter l'idée que leur corps est une machine soumise au déterminisme
matérialiste, idée qui suppose aussi que leur pensée n'est pas libre mais esclave des
contraintes de l'environnement et des mécanismes physiologiques, eux-mêmes
soumis aux lois biologiques, elles-mêmes déduites des lois physiques. Ils font un
blocage psychologique sur ce point et souffriraient beaucoup d'une éventuelle preuve
qu'ils se trompent.
323
Nous verrons plus bas en analysant le déterminisme des êtres vivants que leurs
mécanismes physiologiques ne peuvent être modélisés à partir des seules lois
physiques, comme certains matérialistes le proposent du fait de leurs connaissances
scientifiques dépassées ; un modèle correct est plutôt de type informatique, où une
hiérarchie de logiciel (construite au-dessus des mécanismes cellulaires interprétant
le génome et prenant en compte les interactions entre processus) pilote le matériel
cellulaire pour régir les comportements du vivant, avec ses fonctions d'alimentation,
de mouvement, d'acquisition d'expérience, de reproduction, de pensée et
d'adaptation permanente à l'environnement [51].
De leur côté, certains mécanismes de la pensée qui sont conscients et logiques sont
déterministes, alors que les mécanismes subconscients ne sont ni modélisables ni
prévisibles, sinon en grandes lignes.
3.5.14.2
Attitude recommandée face au déterminisme
Rappelons d'abord nos objectifs. Le déterminisme sert à chacun de nous à
comprendre le monde qui l'entoure - et dans les cas très simples à se comprendre
lui-même - puis à prévoir l'évolution des situations pour décider ce qu'il va faire. La
compréhension et son expression sous forme de lois, doivent :

Respecter les faits objectifs connus dans le cadre d'une attitude scientifique ;

N'être considérées comme dignes de confiance (c'est-à-dire vraies) qu'après
avoir été soumises à des tentatives de contradiction avec des faits réels ou
imaginaires mais en tout cas plausibles, et après avoir été approuvées par la
communauté scientifique, notamment après vérification expérimentale.
Une décision basée sur ces faits et lois doit être conforme à la logique, dans la
mesure où les éventuelles connaissances insuffisantes et incertitudes le permettent ;
quand c'est nécessaire, ses hypothèses doivent être assorties de mises en garde ou
de probabilités.
Nous avons vu qu'il y a en physique beaucoup de lois surprenantes, et les domaines
du vivant et du sociétal nous surprendront encore plus et nous conduiront à étendre
encore davantage la définition du déterminisme. Une première recommandation à
chacun de nous, après celle (évidente) d'une pensée objective, logique et sans
émotion, est donc d'avoir la meilleure culture générale possible en matière de
sciences exactes, ainsi que de sciences de l'homme et de la société. C'est tout aussi
évident, même si c'est plus facile à recommander qu'à faire, et si les hommes ne
seront jamais égaux face à la connaissance et à l'aptitude à réfléchir. Et comme nul
ne peut savoir seul tout ce qu'il faut, il doit faire l'effort de chercher l'information, de
communiquer avec d'autres et de travailler en équipe.
La France souffre d'une baisse constante du niveau de connaissances dispensé par
l'enseignement de masse primaire et secondaire [177], et d'une dévalorisation du
savoir dans la société.
3.5.14.2.1 Critique des méthodes de réflexion de quelques philosophes français
En discutant du sujet et des idées de cet ouvrage avec trois philosophes français
connus du grand public, j'ai été surpris de découvrir que leur culture littéraire
considérable était associée à un manque regrettable d'entraînement dans l'art de
324
penser de manière logique et rigoureuse. Ces personnes extrêmement intelligentes
raisonnaient pour l'essentiel par intuition. En général, après avoir trouvé une
première réponse intuitive à un problème posé, ils essayaient de la justifier à l'aide
d'analogies ou d'arguments d'autorité (références à l'opinion de personnages
respectés), mais en faisant assez peu appel à la déduction logique. La plupart du
temps, ils violaient le premier précepte de Descartes [4] en tenant pour vraie une
proposition qui n'était qu'une intuition non démontrée et non contredite [316] ; et ils
violaient ce cinquième précepte que je suggère d'ajouter aux quatre de Descartes :
"Ne rien tenir pour faux ou impossible qui ne le soit démontré".
Penser avec rigueur et logique demande un entraînement comme celui qu'on obtient
par la pratique des mathématiques ou du développement de logiciel informatique.
Une telle pensée ne nie pas l'utilité de raisonnements par intuition, induction ou
analogie, elle les discipline et les rend plus sûrs. Il est impossible d'empêcher son
esprit d'avoir des idées, mais avec un peu d'entraînement on peut s'habituer à
soumettre chacune au moins à des tests de plausibilité. Il y a aussi le problème du
respect des lecteurs et de l'opinion qu'ils peuvent se forger sur un auteur : un seul
niveau de qualité est acceptable pour un auteur sérieux, le meilleur possible.
Enfin, j'ai constaté que ces philosophes étaient assez sûrs de la rigueur de leur
pensée pour oublier souvent de prendre en compte des connaissances et des lois
physiques dont ils n'avaient pas entendu parler : victimes du syndrome de
Kahneman "What You See Is All There Is" ils raisonnaient alors faux [316].
Exemples de manque de rigueur

Un philosophe a critiqué le fait que mon travail, très marqué par le matérialisme,
ne laissait pas assez de place au scepticisme, par exemple en refusant de
réfléchir à des Univers externes et à la période qui a précédé l'inflation et le Big
Bang. J'ai dû lui faire observer qu'il s'agissait là de pures spéculations, qui ne
pouvaient apporter quoi que ce soit à une réflexion rigoureuse.

Un autre philosophe a refusé de continuer à discuter avec moi lorsqu'il a appris
que je n'étais pas, comme lui, partisan du principe anthropique, erreur que je
dénonce plus bas.
Coopération entre philosophes et scientifiques
Enfin, je suggère aux philosophes qui veulent penser au-delà de la science conformément à la vocation de la philosophie, et même si cela introduit des risques
d'erreur - de travailler en équipe avec des scientifiques, chacun ouvert à l'approche
intellectuelle des autres ; c'est aussi en pensant à ces philosophes - et plus
généralement aux intellectuels - que j'ai écrit ce texte à partir de ma formation
scientifique.
325
3.5.14.2.2 La liberté d'esprit et d'expression
Voici une citation extraite de [209] page 80 :
"A quelles conditions enfin le progrès scientifique pourrait-il être menacé ? Etant
donné le caractère infini de notre ignorance, la science peut en droit progresser
indéfiniment. Les seules forces qui la menacent sont extérieures :
psychologiques - le manque d'imagination théorique - ; méthodologiques l'excès d'importance accordé à la précision et à la formalisation -. Surtout les
conditions sociales ont une grande importance : pour s'épanouir la science a
besoin de conditions économiques (une aisance minimale), et culturelles : les
modes, l'esprit de secte, l'excès de spécialisation, la soumission excessive à des
impératifs technologiques peuvent menacer l'esprit critique et atténuer sa
rigueur. Enfin, et par-dessus tout, l'attitude critique dépend des conditions
politiques : l'autoritarisme et les dictatures détruisent complètement la science."
Je suis d'accord pour dire que le progrès de la science a toujours souffert d'un
régime autoritaire, en particulier s'il est aussi totalitaire et soumis à une idéologie
officielle. Ce fut le cas sous le régime nazi en Allemagne et le régime soviétique en
URSS, régimes où les scientifiques avaient des obligations concernant le but de
leurs recherches (soumis à la politique), le refus de résultats (la science « juive »
d'Einstein, Fermi, Freud et Husserl était taboue en Allemagne nazie), le droit d'être
chercheur sans être membre du Parti et la difficulté de communiquer avec des
savants étrangers (URSS), le filtrage des accès Internet en Chine, etc.
La science a des retombées qui sont des instruments de prestige et de pouvoir qu'un
régime totalitaire ne peut ignorer ; c'est pourquoi en URSS les grands savants étaient
comblés d'honneurs et d'argent, tout en étant astreints à faire les recherches
approuvées par les politiciens et à nier la vérité scientifique quand elle dérangeait
ces derniers. J'augure mal des progrès scientifiques chinois dans les décennies à
venir, parce que les savants de ce pays travaillent dans un contexte de liberté et de
confiance limitées, et sous la domination de politiciens trop souvent corrompus.
3.5.14.2.3 L'ouverture d'esprit
Nous avons vu, à propos de la physique, beaucoup de concepts nouveaux et de
méthodes de pensée nouvelles. Mais il y en a beaucoup d'autres, j'en cite ci-dessous
des exemples qui sont si éloignés des concepts et méthodes de pensée habituels
qu'ils obligent à remettre en question certaines habitudes mentales ; je pense surtout
aux personnes de culture essentiellement littéraire, plus à l'aise dans l'apriori,
l'intuition et l'originalité que dans la rigueur, l'objectivité, la soumission aux faits et la
reconnaissance de l'ignorance.
Nous connaissons tous les propriétés élémentaires de la matière que sont la masse
ou la charge électrique, par exemple. Mais la physique quantique impose la prise en
compte d'autres propriétés tout aussi élémentaires et fondamentales, comme :

Le spin [22], représenté par le vecteur moment cinétique d'une particule
(électron, proton, etc.). Celle-ci se comporte comme une masse tournant sur
elle-même, même si cette image intuitive du spin n'est pas conforme à la réalité
physique. Et comme on pouvait s'y attendre, le spin est quantifié, il ne peut
prendre que des valeurs entières ou demi-entières multiples du quantum d'action
ä.
326

La saveur, caractéristique d'un quark ou d'un lepton qui mesure sa réaction aux
interactions faibles [18]. Il y a 4 saveurs : le charme, l'étrangeté, bottom et top.
 Les 6 quarks sont : up, down, charme, étrangeté, top, bottom.
 Les 6 leptons sont : l'électron, le muon, le tau, le neutrino-électron, le
neutrino-muon et le neutrino-tau.

La couleur, autre nombre quantique, caractéristique fondamentale des quarks et
des gluons [18], qui existe en trois types : rouge, vert et bleu (types aussi
symboliques que la couleur elle-même, que jamais personne n'a vue ou ne
verra). La couleur mesure la réaction d'une particule aux interactions fortes [18].
Les antiquarks ont des anticouleurs : antirouge, antivert et antibleu.
Les hadrons n'ont pas de couleur : on les dit « blancs ».

L'hélicité, composante du spin le long du vecteur impulsion [20] d'une particule,
pour caractériser l'asymétrie fondamentale de la matière. L'hélicité peut être à
droite lorsque la particule se déplace dans le sens de son spin, ou à gauche
lorsqu'elle se déplace dans le sens opposé. Le photon possède deux états
d'hélicité, +1 et -1, et c'est par abus de langage qu'on dit qu'il a un spin 1.
Toutes ces propriétés - et il y en a d'autres - n'apparaissent que dans les calculs,
parce qu'elles concernent des particules minuscules. On ne peut se les représenter
intuitivement parce qu'elles ne ressemblent à aucun concept de notre expérience
familière. Elles n'en sont pas moins réelles et impossibles à ignorer, et il faut une
certaine ouverture d'esprit pour les prendre en compte à travers des équations en
refoulant notre intuition.
L'ouverture d'esprit concerne aussi des méthodes de pensée, nous en avons vu des
exemples comme le vide plein d'énergie, la pluralité des états finaux, l'imprécision
limitant la précision, l'indétermination, les fluctuations d'énergie et la généralité des
phénomènes discontinus (vibrations, frottements...) Nous devons prendre l'habitude,
chaque fois que quelque chose ne s'explique pas par des raisonnements et un
déterminisme classiques, d'ouvrir notre esprit à des possibilités nouvelles en matière
de faits ou de méthodes de pensée. C'est pourquoi, aux quatre préceptes de
Descartes [4] j'ai suggéré ci-dessus d'en ajouter un cinquième :
"Ne rien tenir pour faux ou impossible qui ne le soit démontré".
Cela demande une attitude de modestie, de soumission aux faits, de reconnaissance
de ses erreurs, d'adaptation permanente des méthodes de pensée .
L'ouverture d'esprit est aussi indispensable aux chercheurs, à la fois pour rêver et
espérer des découvertes et pour accepter celles des autres [153]. Elle est aussi
nécessaire aux entrepreneurs pour espérer, risquer et investir.
Enfin, quelle joie pour un intellectuel d'apprendre quelque chose de neuf ! C'est la
même joie que celle d'un sportif dont l'effort est récompensé par la performance.
3.5.14.2.4 Une loi est toujours vraie, elle ne peut être probable
Supposons que j'affirme « un lancer de dé donne un 6 », en ajoutant que ce sera vrai
une fois sur 6, c'est-à-dire que c'est une "loi" dont la probabilité d'être exacte est 1/6.
327
Le problème est alors qu'il existe des cas où la loi est fausse, tous ceux où sort un
chiffre autre que 6. La loi « un lancer de dé donne un 6 » peut donc être prise en
défaut. Elle doit donc être considérée comme fausse, car une loi ne peut pas être
assortie d'une probabilité, c'est un prédicat dont les seules valeurs possibles sont
« toujours vrai » et « toujours faux ».
Si je prends en compte cette objection en formulant la loi sous la forme « un lancer
de dé donne un des six nombres de 1 à 6, chacun ayant une probabilité de sortir de
1/6 », la loi est toujours vraie, on ne peut la prendre en défaut. Une loi ou une théorie
peut donc donner un résultat probabiliste, mais son énoncé doit être valable dans
tous les cas, sans contre-exemple. Une loi est toujours déterministe, même avec des
résultats probabilistes, nous l'avons déjà vu.
Une loi ne peut donc pas être considérée comme valable si « elle n'a que de rares
exceptions ». La liste des éventuelles exceptions doit faire partie de son énoncé et
être exhaustive ; et pour chaque exception il faut justifier pourquoi elle ne contredit
pas la loi. Tout ensemble de résultats d'expériences dans des cas particuliers n'est
que cela, un ensemble de cas particuliers ; il ne constitue pas une loi générale,
même si le nombre de cas est élevé, car il pourrait exister un contre-exemple. Nous
compléterons cette réflexion en décrivant le rationalisme critique de Popper.
3.5.14.2.5 Le « principe anthropique »
Les physiciens ont remarqué des coïncidences troublantes entre diverses constantes
de l'Univers et la possibilité d'une vie terrestre (voir [242] et [136] Tegmark pages 138
et suivantes). En voici deux parmi bien d'autres (concernant l'âge de l'Univers, la
masse et la charge du proton et de l'électron, la constante de gravitation G, etc.) :

L'astronome anglais Fred Hoyle a remarqué qu'une valeur à peine différente de
l'intensité de l'interaction nucléaire [18] aurait pratiquement réduit à néant la
génération de carbone dans les réactions de fusion stellaires, les seules dans
l'Univers à en fabriquer. Puisque sans carbone la vie telle que nous la
connaissons est inconcevable, il semble que l'interaction nucléaire ait "juste la
force de champ qu'il faut" pour que la vie apparaisse dans l'Univers.
Pour les tenants du principe anthropique, cela ne peut s'expliquer que par
l'influence de la volonté d'un Créateur, si l'on tient compte du fait qu'il y a de
nombreuses coïncidences comme celle-là.

Le physicien prix Nobel Steven Weinberg a remarqué dans son livre [145] qu'il y
a un rapport entre la valeur de la constante cosmologique [146] et l'existence de
la vie sur la Terre. Une valeur trop élevée de cette constante (source de
gravitation négative) aurait empêché toute formation de galaxie, donc aussi la
formation du système solaire. Sa valeur connue est compatible avec la
répartition de matière observée et l'expansion de l'Univers, donc la vie terrestre.
Ces coïncidences sont si nombreuses et si troublantes que des physiciens comme
Robert Dicke ont postulé l'existence d'un « principe anthropique », selon lequel elles
ne sont pas le fruit du hasard. Ce principe postule que ces constantes ont
exactement « les bonnes valeurs » pour que la vie apparaisse et évolue vers la
complexité que nous constatons dans l'homme, sans avoir besoin de la sélection
naturelle de Darwin. Tout se passe comme si l'Univers était soumis à un
déterminisme global, comme si une volonté téléologique externe à l'Univers l'avait
328
fait tel qu'il est, avec les lois qu'il a, pour que la vie apparaisse et évolue en
complexité jusqu'à l'homme qui l'observe aujourd'hui. Le principe anthropique est
donc une forme moderne de la « preuve » téléologique de l'existence de Dieu, que
nous avons décrite dans la première partie de cet ouvrage.
Discussion
Le principe anthropique est-il un déterminisme divin ?
Les coïncidences de valeurs de constantes ci-dessus étant réelles, chacun est libre
de les interpréter comme il veut, notamment en postulant l'existence à l'échelle de
l'Univers d'un déterminisme de niveau supérieur à tous les autres. Ce déterminismelà régirait les divers déterminismes des lois physiques, comme le Principe de
moindre action de Maupertuis [62] détermine globalement un choix de trajectoire au
lieu de la détermination de proche en proche résultant du déterminisme ponctuel des
lois de Newton. On peut aussi y voir une manifestation du dessein d'un Créateur.
Il faut rappeler le principe d'identité
Le principe d'identité [16], fait que la réalité à un instant donné est ce qu'elle est et ne
peut être autre, même si notre esprit s'en étonne, le regrette ou y trouve des
coïncidences. Considérons alors les diverses constantes et lois de l'Univers telles
que si l'une était un tant soit peu différente l'homme ne pourrait exister. Sachant qu'il
existe, il est impossible de trouver le moindre fait qui contredise cette existence ; si
on en trouvait un, ce serait à coup sûr une erreur ! Toutes les valeurs de constantes
et lois physiques remarquables associées par certains à l'existence de l'homme
n'auraient pu être différentes, du fait du principe d'identité. S'étonner, alors, que telle
constante ait une valeur très proche d'une limite qui rendrait la vie impossible est
humain, mais ne prouve rien car elle ne peut avoir que la valeur exacte qu'elle a.
Pour la nature, la notion de proximité d'une valeur n'a pas de sens ; à un instant
donné une grandeur physique a la valeur exacte qu'elle a. Juger qu'elle est
proche d'une autre valeur, ou qu'une différence relative d'un millionième
changerait la face du monde sont des réactions humaines sans rapport avec les
lois physiques.
Des probabilités qui n'ont pas de sens
Un autre argument faux que j'ai vu en faveur du principe anthropique fait intervenir
une probabilité pour qu'une constante de l'Univers importante pour l'existence de
l'homme ait (ou n'ait pas) la valeur précise qu'elle a.
La probabilité d'une situation étant le rapport du nombre de cas favorables au
nombre de cas équiprobables possibles, on ne peut la calculer que si l'on connaît
ces deux nombres ; par exemple, la probabilité pour qu'un lancer de dé donne un 3
est calculable, car ce cas "favorable" unique fait partie de 6 cas "possibles"
équiprobables. On calcule aussi, par exemple, une telle probabilité en Mécanique
quantique, lorsque la valeur d'une variable mesurée est une valeur propre d'un
ensemble (le spectre de l'observable [278]) qui en a un nombre fini connu, chacune
assortie d'une probabilité calculable.
Lorsque la constante considérée de l'Univers est un nombre réel, le nombre de cas
possibles est infini. La probabilité d'une valeur donnée n'a alors de sens que pour un
329
certain intervalle autour de cette valeur et si l'on connaît la loi de densité de
probabilité de la constante [28] ; sans cette densité de probabilité, la notion de
« faible différence entre une variable et une valeur critique » n'a pas de sens. Or je
n'ai jamais vu qu'un partisan du principe anthropique, qui s'étonne de la proximité
d'une valeur de constante avec une valeur critique pour l'existence de la vie, ait pris
soin de citer la densité de probabilité dans leur voisinage ; et je ne l'ai pas vu parce
que la loi de densité de probabilité d'une constante n'existe pas !
Ce que j'ai vu, en revanche, c'est l'argument qu'une constante « a une valeur
contingente car elle aurait pu en avoir une autre ». C'est là une spéculation pure,
puisque la constante ne peut pas, justement, avoir une valeur autre que celle qu'elle
a, du fait du principe d'identité.
Tout calcul de la probabilité pour qu'une situation qui s'est produite se soit
effectivement produite car on peut imaginer qu'elle ne se fut pas produite, est une
spéculation sans valeur lorsqu'il est impossible de connaître ou de dénombrer toutes
les évolutions qui ont fait qu'elle s'est produite et toutes celles qui auraient pu se
produire. De même, calculer la probabilité de non-survenance d'un événement du
passé qui ne s'est pas produit est absurde.
Le besoin de l'homme que l'Univers ait un sens conforme aux valeurs morales
Le principe anthropique a souvent été utilisé par des spiritualistes, pour qui l'idée
matérialiste que l'homme est le produit d'un Univers dominé par des forces aveugles
et indifférentes est insupportable. Certains rejettent cette idée parce qu'elle ne
permet pas de justifier l'origine des valeurs morales, origine qui pour eux ne peut être
que divine parce que ces valeurs sont par essence universelles et éternelles,
conformément (par exemple) à l'enseignement de Saint Thomas d'Aquin.
Les matérialistes répondent à cette objection que les scientifiques savent aujourd'hui
– preuves ethnologiques à l'appui - que les principes de morale humains sont des
conséquences de l'évolution des sociétés humaines, qui les ont définis
progressivement siècle après siècle [154]. Ils reprochent aux spiritualistes :

d'avoir inventé le concept d'un Dieu sacré pour pouvoir Lui attribuer sans
justification les principes de morale auxquels ils tiennent et qu'ils veulent faire
respecter ;

de ne pas expliquer pourquoi Dieu, si moral, a permis l'existence de barbares
comme Hitler, Pol Pot et Ben Laden, dont l'éthique est à l'évidence peu
conforme à celle des textes sacrés ; est-ce une erreur de Sa part, un pouvoir
insuffisant, une punition pour les autres hommes ? (Voir le « problème du mal »).
Origine de la supériorité de l'homme sur les autres êtres vivants
Pour sa part, Darwin répond aux spiritualistes dans [42] page 448 en attribuant la
noblesse de la lignée humaine à son ancienneté, à qui des centaines de milliers
d'années de perfectionnements successifs ont permis de résister à la sélection
naturelle. Pour lui, la morale humaine, indissociable de sa pensée, est
consubstantielle de l'être social qu'est l'homme. Elle représente une des supériorités
de son espèce, qui ont permis sa survie et finalement sa domination. Il écrit :
"Lorsque je considère tous les êtres, non plus comme des créations spéciales,
mais comme les descendants en ligne directe de quelques êtres qui ont vécu
330
longtemps avant que les premières couches du système cambrien aient été
déposées, ils me paraissent anoblis. […] Or, comme la sélection naturelle n'agit
que pour le bien de chaque individu, toutes les qualités corporelles et
intellectuelles doivent tendre à progresser vers la perfection."
Chaque homme est unique
Chez un homme donné, quelques centaines de caractéristiques de sa « signature
ADN » plus ses empreintes digitales permettent d'en faire un être unique dans
l'Humanité : la moindre variation d'une de ces caractéristiques l'aurait fait autre.
On peut s'étonner de l'exigence de précision de ces paramètres, penser qu'elle ne
peut être due au hasard, voire attribuer l'existence et l'unicité de notre homme à Dieu
comme on le faisait au Moyen-Age : ce raisonnement serait le même que celui des
tenants du principe anthropique. On ne le fait pas parce qu'il y a plus de 7 milliards
d'hommes, chacun avec des caractéristiques qui diffèrent au moins un peu de celles
de tout autre, chacun unique à sa façon. Pour chaque homme, si remarquablement
unique, le principe d'identité s'applique : il est comme il est, il ne pourrait être
différent que dans notre imagination ou en étant un autre homme. Notre étonnement
ou l'attribution de cet homme à un Dieu créateur répondent à un besoin
psychologique d'une cause créatrice, mais échappent à toute rationalité.
Un principe infalsifiable
Le principe anthropique est comme l'existence de Dieu, un énoncé infalsifiable [203] ;
en vertu du rationalisme critique il n'a donc rien de scientifique. C'est donc un
émerveillement de spiritualiste et le fruit de l'imagination. On peut toujours spéculer
que, dans un autre Univers où les lois seraient différentes, l'homme n'aurait pu
apparaître, mais c'est là pure spéculation métaphysique et il n'y aura jamais
d'avancée scientifique permettant de le savoir ; nous ne saurons jamais rien de
scientifique concernant un hypothétique espace extérieur à l'Univers ou l'ayant
précédé
Conclusion
Le principe anthropique est une spéculation spiritualiste irrationnelle qui introduit un
déterminisme divin, finalité destinée à combattre le déterminisme matérialiste.
La recherche d'exoplanètes
On peut cependant interpréter l'existence d'un ensemble de conditions à satisfaire
pour que la vie apparaisse pour délimiter des régions, au voisinage d'autres étoiles
que le Soleil, où une vie telle que nous la connaissons serait possible. Dans une telle
région, par exemple, la température doit permettre l'existence de l'eau à l'état liquide,
l'étoile ne doit pas émettre de rayonnement mortel, etc. Sous cette forme-là
(ensemble de conditions d'une vie comme la nôtre) le principe anthropique est utile
aux astronomes qui cherchent des planètes (appelées exoplanètes) où la vie pourrait
exister.
331
3.6
Niveaux d'abstraction et déterminisme
Le déterminisme fournit des principes pour guider la pensée lorsque celle-ci se veut
rationnelle et objective. Pour raisonner juste, il faut souvent réussir à comprendre
des choses abstraites ou complexes, et à les formuler clairement pour bien se les
représenter et les faire comprendre à autrui. Le texte qui suit présente quelques
aspects du fonctionnement de la pensée pour comprendre et représenter quelque
chose d'abstrait ou complexe.
3.6.1
Densité et profondeur d'abstraction
Problèmes posés par la densité et le niveau d'abstractions
Supposons que je dise (forme A) :
« Comme tous les petits chats, le mien aime jouer avec une balle. Il lui donne
des coups de patte. En jouant, il s'entraîne à poursuivre des souris. »
Ce discours est clair (j'espère !). Si maintenant je dis (forme B) :
« Tous les félidés qui n'ont pas encore atteint le stade adulte utilisent des passetemps ludiques pour assimiler les aptitudes nécessaires à un prédateur de
rongeurs. »
Dans la forme B il y a des mots et concepts plus abstraits que ceux de la forme A :
félidés, stade adulte, ludique, prédateur et rongeurs. Chaque fois que j'utilise un mot
rare ou abstrait je prends le risque d'être incompris, pour deux raisons :

Dans mon auditoire certaines personnes peuvent ne pas connaître un ou
plusieurs de ces mots ou concepts, ou les confondre avec d'autres ; et plus ces
mots ou concepts abstraits sont nombreux dans mon texte, plus ce risque est
élevé.
Le risque augmente non seulement avec le nombre de mots rares ou abstraits,
mais aussi et surtout avec leur densité, c'est-à-dire la proportion de ces mots
dans l'exposé.
Cette croissance de la difficulté de comprendre avec la densité d'abstractions
vient de ce que le processus de compréhension de l'esprit utilise des
rapprochements de mots ; par exemple, si je ne suis pas sûr du sens de
"prédateur" mais que je connais celui de "rongeurs", je peux deviner qu'un
prédateur est un être qui attrape, dévore ou maltraite des rongeurs. Donc plus la
densité de termes abstraits est élevée, plus je risque de tomber sur des
associations de mots que je ne comprends pas ou que j'interprète mal.

Certains mots abstraits peuvent être définis, donc compris, connaissant un ou
plusieurs mots du langage courant. C'est ainsi que le mot "prédateur", qui peut
être défini avec la phrase "Animal ou plante qui se nourrit d'autres animaux ou
plantes", peut se comprendre à partir des concepts courants que sont "animal",
"plante" et "se nourrir". Nous dirons que le mot "prédateur" est une abstraction
de niveau 1.
Le mot "félidé", qui désigne un membre de la famille des mammifères
carnassiers digitigrades, nécessite pour être compris de connaître le sens de
332
"mammifère", "carnassier" et "digitigrade", qui sont des abstractions de niveau
1 : nous dirons que "félidé" est une abstraction de niveau 2.
Le risque de mal comprendre une abstraction comme "félidé" est double :
 D'une part, en tant qu'abstraction d'abstraction, ce qui demande un effort
conceptuel plus grand et entraîne donc un risque d'incompréhension ou de
mauvaise interprétation plus grand.
 D'autre part, parce qu'il faut connaître trois abstractions distinctes pour le
comprendre : "mammifère", "carnassier" et "digitigrade" ; il y a un risque de
ne pas les connaître toutes les trois, et un risque de mal en interpréter au
moins une. Ce second risque est en fait de type densité d'abstraction,
puisque les trois abstractions de niveau 1 "mammifère", "carnassier" et
"digitigrade" apparaissent côte à côte dans la définition de l'abstraction de
niveau 2 "félidé".
Règles de représentation et de communication concernant les abstractions

Eviter les abstractions et les mots rares, ou au moins prendre soin de les définir
dès leur première apparition.
C'est ainsi que la phrase "L'épicurisme est un eudémonisme", apparue sans crier
gare dans un livre de cours de philosophie où « eudémonisme » n'est défini nulle
part, pose problème à tous ceux (dont j'étais) qui n'avaient jamais entendu parler
d'eudémonisme et lisaient le cours pour apprendre la philosophie. (Pour ne pas
que vous m'accusiez d'utiliser un mot rare et abstrait sans l'expliquer, vous
trouverez la définition que j'ai fini par construire de ce mot grâce à des sources
Internet dans [3].)
Lorsqu'on a besoin de réutiliser un terme abstrait dans la suite de l'exposé, on
peut faire suivre sa première apparition d'une explication. C'est ce que j'ai fait
délibérément ci-dessus en expliquant le mot eudémonisme tout de suite après
l'avoir utilisé, dans le renvoi [3]. On peut aussi (nous sommes à l'ère des textes
présentés en langage HTML !) fournir un lien hypertexte donnant accès direct
(dans le même texte ou sur Internet) à chaque définition depuis tous les endroits
où elle peut être utile.
A moins de s'adresser à des spécialistes, il faut résister à la tentation d'utiliser
les mots savants compris seulement d'eux seuls, même si ces mots sont plus
précis qu'une périphrase. Je connais des universitaires qui utilisent le maximum
de mots savants et s'expriment dans les termes les plus généraux possibles,
pour qu'on admire leurs connaissances, oubliant que le premier devoir d'un
enseignant est de se faire comprendre de ses étudiants.

Diminuer au maximum la densité d'abstractions. On peut recourir à des phrases
courtes. On peut aussi insérer des définitions, des périphrases ou des exemples.
Voici un exemple de ce qu'il ne faut pas faire, attribué à un « formateur en
sciences de l'éducation » par un instituteur dans le blog "Bonnet d'âne" de M.
Jean-Paul Brighelli [178] :
"…décontextualiser les évaluations certificatives à références critériées en
les plaçant dans un référentiel distancié que l'on doit recontextualiser dans
un cadre fonctionnel intégratif, etc. "
333
En voici un autre, attribué à un enfant surdoué de 11 ans qui demande à sa
mère, agrégée de mathématiques qui se découvre alors un abîme d'ignorance :
"Maman, comment peut-il se faire que le concept de déité
anthropomorphique capable de jugements de valeur humanistiques puisse
subsister à notre époque, alors que de tels postulats subjectifs auraient dû
depuis longtemps être éliminés des réflexions sérieuses des intellectuels par
la philosophie positiviste et le matérialisme dialectique ?"

Eviter au maximum les abstractions de niveau supérieur à 1. Plus on y recourt,
plus on décourage son public, plus on risque d'être mal compris.
Un exemple de ce qu'il faut éviter nous est fourni par les textes des philosophes
Kant ou Hegel : la densité d'abstractions y est élevée, il y a de nombreuses
abstractions de niveau deux ou plus, les phrases sont longues, les exemples
rares. Ces textes se lisent à la vitesse d'une page mal comprise à l'heure. On
peut être un très grand penseur et ne pas savoir partager sa pensée. Quelle
différence avec Descartes ou Pascal !

S'il ne s'agit pas d'un texte littéraire, éviter les métaphores, les sous-entendus et
le besoin pour le lecteur de lire entre les lignes. N'écrivez pas comme Nietzsche.
Soyez clair, au contraire, et n'hésitez pas à vous appuyer sur des exemples.
Les règles ci-dessus sont résumées aux Etats-Unis par le sigle KISS :
"Keep It Simple, Stupid!"
Nous savons qu'un exemple permet de vérifier au moins dans un cas que ce qu'on
dit est plausible, et d'aider le lecteur à vous comprendre. Non seulement l'homme
comprend mieux un sujet abstrait ou complexe à partir d'un exemple concret et
simple, mais il comprend mieux si on expose un ou deux cas particuliers avant le cas
général : notre esprit a besoin de s'habituer à une idée nouvelle, de la situer par
rapport à des connaissances qu'il a déjà, d'en évaluer les conséquences sur ce qu'il
sait déjà ou les questions qu'il se posait. Un exposé qui commence par une définition
extrêmement générale et abstraite submerge notre faculté de compréhension, qui ne
peut rattacher ses nouveaux concepts à des concepts déjà maîtrisés. D'où la
dernière règle de pédagogie : expliquer un sujet en augmentant le niveau
d'abstraction progressivement, en commençant si nécessaire par un cas particulier
pris pour exemple.
Nous allons à présent utiliser ces idées.
3.6.2
Compréhension par niveaux d'abstraction
Notre esprit ne peut comprendre quelque chose de niveau de complexité élevé à
partir de notions de niveau très inférieur.
C'est ainsi que je ne peux comprendre une fonction physiologique animale comme
l'assimilation de nourriture à partir de notions de chimie organique. Voici pourquoi.
Pour comprendre l'assimilation, j'ai besoin de comprendre d'abord les processus de
niveau d'abstraction immédiatement inférieur que sont les mécanismes sous-jacents
d'hydrolyse des molécules organiques (qui transforme les nutriments sous une forme
leur permettant de traverser les membranes des épithéliums digestifs), de transport
334
des nutriments (glucose, acides aminés, acides gras) dans l'organisme, et de
construction des macromolécules de l'organisme conformément à son code
génétique.
Le niveau d'abstraction des trois processus ci-dessus est inférieur à celui de
l'assimilation, mais encore trop élevé pour faire partie de la chimie organique. J'ai
donc aussi besoin de comprendre chacun des trois processus élémentaires de
l'assimilation à partir de notions encore moins abstraites. L'hydrolyse, par exemple,
est un processus mettant en œuvre des enzymes de la famille des hydrolases, qui
réalisent l'ouverture par l'eau de liaisons C-O ou C-N ; comprendre cela demande
des connaissances sur le rôle des hydrolases dans les processus de chimie
organique d'ouverture des liaisons…
L'exemple ci-dessus illustre l'impossibilité de sauter des niveaux d'abstraction
lorsqu'on veut comprendre quelque chose de complexe. Un niveau supérieur prend
en compte des interactions externes des niveaux inférieurs, interactions qui ne
peuvent être déduites des propriétés de chacun : le tout est plus riche que la somme
des parties. Notre esprit a besoin de représentations hiérarchisées, construites avec
des processus mentaux élaborés qu'il met souvent de longues années à assimiler.
A chaque montée de niveau, notre esprit schématise la réalité pour la simplifier. Il
néglige ainsi des détails qui risqueraient de l'encombrer. Cette simplification peut
aller jusqu'au réductionnisme [179].
Mais il ne suffit pas de comprendre chacun des concepts de niveau N-1 qui
définissent un concept de niveau N, il faut aussi comprendre comment ces concepts
sont associés pour définir le concept de niveau supérieur ; en d'autres termes, il faut
à la fois une connaissance des composants sous-jacents du niveau N et une
compréhension de leurs relations avec ce niveau. On reconnaît dans la démarche cidessus l'approche analytique du célèbre "Discours de la méthode" de Descartes [4].
Remarques
En pratique, il ne faut pas limiter la structure de niveaux nécessaire à une
représentation correcte à une arborescence relationnelle stricte (structure où chaque
nœud "fils" de niveau N-1 a un "père" et un seul, situé au niveau N) ; il peut aussi
exister des branches reliant directement des niveaux comme N et N-p (où p>1) par
une sorte de raccourci. On doit aussi recourir à des représentations non
hiérarchisables, par exemple pour tenir compte de pensées nées dans le
subconscient sans relation avec les processus psychiques conscients, pensées qui
paraissent donc transcendantes.
3.6.3
Penser par niveaux d'abstraction
Comprendre quelque chose c'est s'en créer une représentation mentale qu'on estime
satisfaisante.
Il y a là une difficulté : une compréhension satisfaisante pour un individu peut ne pas
l'être pour un autre. Certaines personnes ont une pensée peu exigeante en matière
d'adéquation d'une représentation avec la réalité vérifiable, d'autres sont si
exigeantes qu'elles s'attardent à préciser et vérifier trop de détails. Et certaines
personnes ont tendance à tenir pour vraies des représentations construites par leur
intuition ou par analogie qui ne satisfont guère la raison, c'est-à-dire à penser faux ;
335
on en trouve des exemples en interrogeant des électeurs sur les raisons de leur
choix entre des politiciens candidats et leurs programmes (!) Enfin, nous verrons qu'il
y a des différences entre les représentations mentales que des personnes différentes
se font d'une même réalité.
En plus de comprendre des situations ou des phénomènes, nous devons souvent
construire des concepts, des raisonnements ou des algorithmes de résolution de
problèmes [69]. Et comme dans le cas de la compréhension, notre processus de
construction doit souvent recourir à une hiérarchie de niveaux.
3.6.3.1
La machine de Turing
Le génial mathématicien anglais Alan Turing a montré que n'importe quel
raisonnement logique à étapes, c'est-à-dire n'importe quel algorithme de décision ou
de calcul - même complexe [69] - peut être représenté par une suite d'opérations
élémentaires extrêmement simples, exécutables par un ordinateur simplissime
appelé depuis "machine de Turing".
Rappel : qu'est-ce qu'un ordinateur ? (sautez ce paragraphe si vous le savez)
Un ordinateur est une machine qui exécute des opérations d'entrées et sorties de
données, de stockage et effacement de données, de déplacement de données dans
sa mémoire, de calcul de données, de comparaison de données et de choix de
l'opération suivante à exécuter en fonction de données dans sa mémoire.
Ces opérations sont décrites dans un langage (c'est-à-dire des conventions de
représentation des données et opérations) que son organe de calcul (le processeur)
comprend, langage appelé « langage machine », et qu'il exécute électroniquement.
Par convention, ce langage est de niveau d'abstraction minimum, 1. Et le programme
qui décrit les opérations est introduit et enregistré dans la machine exactement
comme des données. Les programmes constituent la classe du logiciel (en anglais
software), alors que les ordinateurs font partie du matériel (hardware).
3.6.3.2
Hiérarchies des langages de l'informatique
Rappels succincts
L'écriture de programmes utiles à l'homme (dits programmes d'application) en
langage machine serait trop fastidieuse ; on a donc imaginé un langage de niveau 2,
sorte de sténo dont chaque instruction provoque l'exécution de plusieurs (parfois des
milliers) d'instructions en langage de niveau 1. Dans un tel langage de niveau 2,
l'écriture de programmes utiles à l'homme est plus concise, simple et rapide que
dans le langage de niveau 1. Après écriture, un programme en langage de niveau 2
est traduit automatiquement en langage de niveau 1 par un logiciel spécial appelé
« compilateur », et c'est le programme traduit que l'ordinateur comprend et exécute
dans son processeur.
On a aussi imaginé des programmes spécialisés sous-traitants du programme
principal (les sous-programmes), écrits en langage de niveau 2 ou parfois 1, pour
effectuer certains calculs ou prendre certaines décisions. Enfin, dans de nombreux
cas, on utilise pour gagner en concision et simplicité des langages de niveau 3,
encore plus concis, écrits en langage de niveau 2 et adaptés à une application
particulière ou aux problèmes d'un métier particulier…
336
Les hiérarchies de langages
On voit donc comment l'informatique construit des programmes : elle utilise une
hiérarchie de langages qui élève progressivement le niveau d'abstraction depuis le
niveau exécutable par l'électronique de la machine jusqu'à celui de l'homme et de
ses applications. Grâce à Turing, nous savons que les programmes les plus
complexes peuvent être écrits en langage de niveau d'abstraction élevé adapté au
programmeur, puis traduits automatiquement dans l'ordinateur et enfin exécutés.
Remarque : un langage de niveau supérieur a des concepts plus proches de la
pensée de l'homme qu'un langage de niveau inférieur, mais en plus l'écriture des
programmes y est plus concise.
Exemple de logiciel complexe : un système d'exploitation moderne pour PC comme
Windows comprend plus de 50 millions de lignes de langage de niveau 2 ; il a
nécessité le travail de centaines de programmeurs pendant de longues années.
En plus des niveaux d'abstraction de langage on peut classer les logiciels selon le
niveau technique, en allant du plus technique (le plus proche des processus
informatiques) au plus applicatif (le moins technique, mais le plus proche des
applications de l'utilisateur). Exemple de logiciel technique : un compilateur, qui
traduit un langage en un autre de niveau inférieur ; exemple de logiciel applicatif : un
programme de comptabilité ; exemple de logiciel de niveau intermédiaire : un sousprogramme de calcul de la durée en jours entre deux dates, nécessaire à des
applications comptables de niveau supérieur pour calculer des intérêts, des dates
d'échéance, etc.
Cette méthode de classement selon le niveau technique s'applique à tous les
domaines de la pensée où la complexité impose d'organiser les outils et les
méthodes par niveaux de technicité ou d'adéquation aux problèmes. Exemple : un
raisonnement d'économie (niveau applicatif élevé) utilise des méthodes statistiques
(niveau applicatif intermédiaire) qui s'appuient sur des méthodes mathématiques
(niveau applicatif faible).
Remarque : plus le niveau applicatif est élevé, plus les concepts et méthodes sont
spécialisés (par exemple en économie) ; plus le niveau technique est élevé, plus les
concepts et méthodes sont d'usage général (par exemple les mathématiques). Une
machine à café a une application spécialisée, tandis que la résistance qui y chauffe
l'eau est un objet technique d'usage plus général.
3.6.3.3
Penser la complexité par niveaux hiérarchiques
En informatique comme dans tout autre domaine, la construction de concepts et de
raisonnements complexes exige de passer par une hiérarchie de concepts et
raisonnements dont les niveaux vont du plus général au plus particulier. La
construction de concepts et raisonnements complexes exige de commencer par
construire des concepts et méthodes de raisonnement de haut niveau ou de grande
généralité, qui négligent de nombreux détails. Une fois le problème résolu (en
principe) à ce niveau, on reprend un par un chacun de ses concepts et méthodes et
on en détaille le contenu, créant ainsi un niveau de complexité intermédiaire. Puis on
détaille de nouveau chaque élément de niveau intermédiaire, etc. Cette méthode
337
analytique est qualifiée de "descendante" (les Anglais disent "top-down") ; c'est la
méthode recommandée par Descartes dans son deuxième précepte [4].
En pratiquant cette méthode il faut essayer, à n'importe quel niveau et chaque fois
que c'est possible, d'utiliser des concepts et méthodes de raisonnement déjà connus.
Non seulement on évite ainsi de « réinventer la poudre », mais on recourt à des
concepts et méthodes éprouvés ; et en matière de logiciel, on économise de la place
en mémoire et du temps de développement.
Cette approche permet aussi d'adapter le niveau fonctionnel d'une solution à des
moyens techniques de niveau inférieur, dispensant ainsi l'utilisateur de la solution de
la prise en compte - et même de la connaissance - de détails techniques superflus.
Exemples :

Dans un téléphone portable, des menus, pictogrammes et touches de fonction
lancent des processus parfois complexes à partir d'actions humaines simples ;

Dans une voiture moderne, des ordinateurs embarqués adaptent les actions de
l'homme sur le volant et les pédales aux conditions de route, en gérant la
transmission automatique, les « freins ABS », la « suspension pilotée », les
dispositifs antidérapage basés sur des accéléromètres, etc.
3.6.3.4
Complexité et processus d'abstraction et de mémorisation
Le compte-rendu de recherches [237] nous apprend que les processus mentaux
d'abstraction et de mémorisation des animaux comme l'homme et la souris
fonctionnent par niveaux hiérarchiques. Au lieu de mémoriser chaque objet ou
chaque événement de manière holiste (comme un tout sans rapport avec d'autres
objets ou événements semblables) le cerveau les mémorise sous forme hiérarchique
en réutilisant à chaque niveau le maximum d'informations déjà mémorisées.
Exemple : supposons une souris soumise successivement à deux événements
inquiétants dont on enregistre les processus mentaux de mémorisation.

Le premier événement consiste à simuler un tremblement de terre en secouant
violemment la cage contenant la souris.

Le second événement consiste à simuler une chute en abaissant brusquement
et très vite la boîte obscure contenant la souris, donnant ainsi à l'animal
l'impression que le sol se dérobe sous ses pattes.
Dans sa mémoire, la souris enregistre les informations de ces deux événements
sous la forme hiérarchique à 4 niveaux suivante :

Evénement inquiétant
 (Nature de l'événement) : mouvement brusque du local où je me trouve
 (Type de mouvement) : local secoué
(Nature du local) : le local est une cage.
 (Type de mouvement) : sol du local qui se dérobe sous mes pattes
(Nature du local) : le local est une boîte obscure.
Dans la mémoire de la souris les niveaux (1) "Evénement inquiétant" et
(2) "Mouvement brusque du local où je me trouve" sont communs aux deux
338
événements et donc stockés une seule fois. Au niveau (3) il y a deux cas particuliers
précisant le type de mouvement brusque. Au niveau (4), l'information de chacun des
cas particuliers précédents est complétée par sa nature : "cage" ou "boîte obscure".
On voit que le cerveau de l'animal est capable de représenter un événement en tant
que résultat d'une suite d'abstractions :

qui le précisent de plus en plus au fur et à mesure que le niveau augmente ;

qui réutilisent à chaque niveau une représentation existante du niveau précédent
chaque fois que c'est possible.
Si un troisième événement inquiétant doit aussi être mémorisé ultérieurement, il sera
ajouté à la hiérarchie précédente en profitant du maximum possible de niveaux
supérieurs existants, et même d'informations appartenant à d'autres hiérarchies.
La représentation de ces hiérarchies dans le cerveau utilise des ensembles de
neurones baptisés « cliques » qui travaillent de concert [251]. Certaines cliques
représentent des informations très générales comme "événement inquiétant",
d'autres des détails comme la nature du local.
C'est ainsi que, lorsqu'un homme pénètre pour la première fois dans une
chambre d'hôtel, il peut reconnaître en tant que lit un lit particulier qu'il n'a jamais
vu ; il utilise pour cela des caractéristiques générales et particulières permettant
d'identifier l'objet en tant que meuble, puis par ses propriétés de taille,
horizontalité et présence dans une chambre à coucher, comme un lit.
Une opération de mémorisation ou de recherche dans la mémoire met en jeu des
échanges électriques et chimiques entre neurones passant par des synapses [268].
Ces échanges peuvent être détectés et convertis automatiquement en données
numériques, permettant ainsi de modéliser en ordinateur les opérations psychiques
correspondantes et d'en donner des représentations graphiques.
Conclusion
Le cerveau humain possède des capacités d'abstraction permettant de mémoriser le
résultat d'émotions, de perceptions, de raisonnements, etc. sous forme de
hiérarchies évitant la redondance. Le parcours (par activation de cliques de
neurones) d'une telle hiérarchie permet ultérieurement de retrouver une information,
en fait de la reconstruire. L'existence de ces capacités natives d'abstraction et de
représentation hiérarchisée constitue une raison de plus de penser la complexité par
niveaux hiérarchiques.
Enchaînement de pensées
L'existence de ces hiérarchies explique aussi l'enchaînement de pensées, la
formation d'analogies ou d'intuitions. Lorsque je pense à un sujet qui a une certaine
propriété P, le processus de mémorisation à long terme rattache ce sujet, par
l'intermédiaire de P, à d'autres sujets qui ont la même propriété. Si, par la suite, un
cheminement de pensée atteint P, il pourra se poursuivre sur un autre sujet déjà
mémorisé avec P. Exemple : la vision d'une voiture de couleur rouge vif pourra faire
ressurgir dans mon esprit le souvenir d'une femme qui portait une robe rouge vif.
339
3.6.4
Niveaux d'information biologique et déterminisme génétique
On explique de nos jours certains mécanismes vitaux, par exemple chez l'homme,
par un modèle qui s'est avéré très fécond : les traitements d'information qui leur sont
associés.
Au niveau le plus élevé et en première approximation, notre esprit fonctionne comme
un programme dans un ordinateur qui est notre cerveau. Penser, c'est traiter de
l'information. Tout processus mental conscient peut être décrit sous forme du
traitement d'information dont il est indissociable, qu'il s'agisse de lire un livre, de
réfléchir avant de choisir un produit acheté, de faire des mathématiques, d'écouter de
la musique, etc. C'est là une description de première approximation, assez
déterministe, que nous compléterons plus bas par des fonctionnements non
déterministes ou non prévisibles.
Remarque : le fonctionnement du programme-esprit dans le cerveau est assez
robuste : dans une certaine limite, des neurones peuvent mourir ou perdre des
connexions sans que le programme et ses résultats en soient affectés.
3.6.4.1
L'information du logiciel génétique
Au niveau ADN, le traitement de l'information met en jeu des structures moléculaires
complémentaires : une molécule donnée ne peut interagir qu'avec une molécule dont
la structure lui est complémentaire, c'est-à-dire qui peut former des liaisons
chimiques avec elle. La structure d'une molécule définit donc les autres molécules
avec lesquelles elle peut interagir : la structure définit la fonction, qui définit le
programme que la molécule peut exécuter. Une hiérarchie de structures et de
fonctions apparaît ainsi, de haut en bas :

Toute cellule contient un noyau (diamètre de l'ordre de 6m, soit 6 .10-6 m) dans
lequel on trouve des chromosomes (23 paires chez l'homme), dont la structure
porte l'information contrôlant les fonctions biologiques. Un chromosome humain
mesure environ 8m de long pour un diamètre de 0.5m.

Un chromosome contient environ la moitié de son poids d'ADN (acide
désoxyribonucléique). La molécule d'ADN, géante, a une forme de double hélice
comprenant environ 3 milliards de paires de bases chez l'homme. Chacune des
hélices est copie exacte de l'autre, redondance qui permet de réparer
d'éventuelles "erreurs" lors de la reproduction de cellules.

La molécule géante d'ADN contient des séquences de bases (segments)
appelés gènes, molécules plus petites dont la structure (l'ordre d'apparition des
bases dans un parcours de la séquence) représente l'information nécessaire à
toutes les fonctions biologiques, comme les instructions d'un programme et leur
ordre définissent la logique de ce programme.
Le langage dans lequel est codée l'information génétique est extrêmement
simple : son vocabulaire n'a que 4 « mots » de base, avec lesquels on écrit les
« instructions » des séquences des gènes. Ces mots sont 4 bases azotées
appelées adénine (C5N5H5), cytosine (C4N3H5O), guanine (C5N5H5O) et thymine
(C5N2H6O2), représentées par les lettres A, C, G, T.
Chaque brin de la double hélice de l'ADN est une chaîne d'unités élémentaires
appelées nucléotides. Un nucléotide est constitué d'un sucre, d'un groupe
phosphate et d'une des bases azotées A, C, G ou T. Les deux brins sont reliés
340
par des liaisons hydrogène entre une base de l'un des brins et une base
complémentaire de l'autre. Une base A est toujours associée à une base T, et
une base C est toujours associée à une base G.
Une séquence de code génétique peut, par exemple, contenir la chaîne de mots
ATTCGCA, et une chaîne peut être extrêmement longue, suffisamment pour
décrire une logique aussi complexe que l'on voudra.

Les gènes font construire des protéines par l'ARN (acide ribonucléique) selon les
programmes codés dans leur structure ; on peut les considérer comme de
minuscules ordinateurs qui pilotent la formation de protéines par la machinerie
cellulaire.

Les protéines sont les constituants des muscles, des poumons, du cœur, des os,
etc. Tous les mécanismes de notre corps mettent en jeu des protéines.
La modélisation des mécanismes vitaux non psychiques par des traitements
d'information effectués par des programmes est si satisfaisante que ces mécanismes
apparaissent aussi déterministes qu'un logiciel informatique.
La complexité des processus vitaux et celle d'un logiciel peuvent être
considérables sans impacter leur parfait déterminisme, qui n'en dépend
nullement ; nous avons vu précédemment que des processus déterministes
complexes produisent en général des résultats imprévisibles.
Dans le fonctionnement cellulaire, la biologie moléculaire nous apprend que
l'information génétique est transmise dans un sens unique, des séquences ADN vers
les protéines, et que ce processus est parfaitement déterministe dans sa manière
d'enchaîner les événements à partir de leurs causes [55]. Il y a donc chez les êtres
vivants un déterminisme génétique qui contrôle toutes les fonctions vitales.
3.6.4.2
Etres vivants artificiels définis à partir de leur seul code génétique
L'article [120] illustre la séparation entre le logiciel génétique qui régit le
comportement d'une cellule et la cellule elle-même. Des scientifiques ont remplacé le
génome d'une cellule de bactérie de l'espèce A par celui d'une autre espèce de
bactérie, B, en transplantant la totalité de l'ADN d'une bactérie B dans un noyau de
cellule de bactérie A. La bactérie A s'est alors mise à se comporter exactement
comme les bactéries B. Cette expérience ouvre la voie à la propagation de génomes
totalement ou partiellement synthétiques, c'est-à-dire à de nouveaux types d'êtres
vivants définis à partir de leur seul code génétique.
Le compte-rendu de recherches [248] annonce la création du premier génome
artificiel complet de bactérie, comprenant 582 970 paires de bases. L'équipe travaille
à présent à créer une cellule de bactérie vivante entièrement synthétique.
3.6.4.3
Objections spiritualistes et leur réfutation
Les spiritualistes refusent de croire que la matière biologique (cellules avec leur
structure - quelle qu'elle soit - et leurs processus vitaux) peut à elle seule engendrer
et supporter la vie sans intervention transcendante (divine ou autre, mais en tout cas
échappant au déterminisme naturel). Ils pensent qu'il y a une essence, un principe
vital, une sorte de « cahier des charges » immatériel, non déterministe et résultant
d'une finalité qui préexiste à l'être vivant et en définit les caractéristiques.
341
La raison de leur refus est que le modèle matérialiste traditionnel, qui fait de la vie
une conséquence de la matière, leur paraît incapable de rendre compte de la
richesse, de la beauté et de la liberté qu'ils associent à l'essence de la vie. Nous
savons aujourd'hui que le modèle correct comprend du logiciel en plus de la matière
biologique dans laquelle ce logiciel exécute son code génétique, et que c'est ce
logiciel à base de code inscrit dans les gènes (c'est-à-dire cette information) qui
détermine toutes les manifestations de la vie :

Echanges avec l'extérieur de nourriture, de déchets, de chaleur, d'énergie
mécanique et d'informations (perceptions) ;

Réplication et réparation de code génétique endommagé ;

Différenciation cellulaire permettant la création de cellules spécialisées à partir
de cellules souches ;

Adaptation aux évolutions et agressions de l'environnement, etc.
C'est ce logiciel - les données et la logique du code génétique - qui constitue
précisément l'essence de l'homme [51]. Une des raisons qui font que les
matérialistes n'arrivent pas à convaincre les spiritualistes est que, dans leur modèle
du vivant, les matérialistes oublient de citer ce niveau logiciel entre le niveau de la
matière biologique et celui des fonctions nobles comme l'esprit ; cet oubli leur interdit
d'expliquer la richesse, la complexité et l'imprévisibilité du vivant. De leur côté, les
spiritualistes, pour qui l'essence de l'homme est spirituelle – pas logicielle n'acceptent pas de réduire l'homme à ses cellules, objets purement matériels. Voir
aussi les universaux [168], qui représentent une part importante de l'inné humain.
Nous compléterons ci-dessous les raisons de la difficulté d'expliquer une
constatation au niveau macroscopique à partir de connaissances au niveau
atomique. Nous verrons aussi l'existence de pensées non déterministes.
3.6.4.4
A chaque niveau fonctionnel son niveau logiciel
Même si tout phénomène du vivant est supporté par des processus matériels dans
les cellules, des fonctions de niveau supérieur comme l'adaptabilité à un
environnement qui change ; la conscience, avec son aptitude aux jugements de
valeur ; l'initiative et les autres fonctions nobles du vivant ne s'expliquent que si l'on
tient compte des fonctionnalités du logiciel génétique - et même alors l'explication est
incomplète. Le logiciel génétique ne fonctionne qu'à l'aide de processus matériels
dans les cellules, condition nécessaire ; mais on ne peut réduire les fonctions de
niveau supérieur à ces processus de bas niveau, de même que le fonctionnement
d'un ordinateur ne se réduit pas au déroulement des instructions de son processeur,
car il est structuré par les algorithmes de niveau supérieur du logiciel.
Il y a dans cette impossibilité de réduire les phénomènes de la vie aux seules
fonctions cellulaires une analogie à celle qui consisterait à modéliser les
phénomènes de physique atomique avec les seuls effets des quatre interactions
fondamentales [18] : il manquerait la Mécanique quantique, immatérielle comme
un logiciel, dont les mathématiques sont indispensables pour représenter,
expliquer et prédire ce qui se passe.
342
Mais ajouter le logiciel génétique ne suffit pas : un spiritualiste objectera avec raison
à ce modèle conceptuel dual cellules + code génétique que son modèle d'origine
ordinateur + logiciel n'est pas conforme au vivant, parce qu'il ne sait ni se
reprogrammer pour s'adapter, ni évoluer génération après génération comme l'ont
fait les espèces vivantes, ni surtout avoir une conscience qui formule des jugements
à tout instant. Un ordinateur exécute sans émotion un programme absurde avec des
données correctes, ou un programme correct avec des données absurdes :
indifférent aux conséquences de ses calculs, il n'a aucune finalité comme la
préservation de la vie ou de l'espèce, aucune valeur comme le courage ou l'équité,
aucune conscience intelligente capable de rédiger l'algorithme qui résoudra un
problème pratique.
Une évaluation permanente
Notre code génétique et notre psychisme sont des logiciels (de niveaux différents)
munis de fonctions qui évaluent en permanence les situations résultant de
perceptions physiologiques ou de pensées, conscientes ou non ; ils les évaluent en
fonction de valeurs qu'ils possèdent par héritage (« l'inné ») ou mémorisation
(« l'acquis »). Cette évaluation a pour conséquence des besoins physiques ou des
désirs psychiques que l'homme va chercher à satisfaire, consciemment ou non ; il
cherchera aussi à les satisfaire par une modification ou même une évolution de son
code génétique, de l'expression de ce code, et de ses processus psychiques
conscients et inconscients pour s'adapter à un contexte qui évolue - notamment à
des agressions, à des changements de l'environnement ou à des habitudes de vie
nouvelles.
Voilà en quoi notre programme génétique - et au-dessus de lui notre système
nerveux central et notre psychisme - répondent au cahier des charges de la vie, voilà
comment les résultats d'évaluation constituent des finalités qui guident en
permanence l'organisme [51]. Voyons cela plus en détail.
3.6.4.5
Critères de valeur et d'efficacité, et mécanismes d'évaluation
Le cerveau de tous les animaux est doté de mécanismes d'évaluation pour effectuer
des choix selon des critères de valeur et d'efficacité à court et long terme. Les
individus qui font les meilleurs choix sont les plus aptes à survivre et à profiter de la
sélection naturelle.
Exemple 1 : les choix d'un animal concernant sa nourriture impliquent des
critères d'énergie : comment être le plus efficace pour se procurer de l'énergie
alimentaire, la stocker et la réutiliser. Les individus les plus efficaces selon ce
critère ont le plus de chances de survivre, de prospérer et d'assurer leur
descendance de préférence à des concurrents.
C'est pourquoi les prédateurs choisissent les proies auxquelles ils vont
s'attaquer en fonction du rapport entre dépense énergétique probable pour les
capturer et apport énergétique de leur consommation. Un lion mâle, par
exemple, est trop lourd (170 à 250 kg) pour courir après des gazelles, forme de
chasse qui risque de lui faire dépenser trop de calories par rapport au bénéfice
alimentaire escompté. Une lionne, au contraire, poursuivra ce genre de proie :
plus légère (120 à 180 kg), elle peut se permettre de risquer plus souvent
d'échouer (en moyenne 3 fois sur 4) avant d'attraper une gazelle. Un guépard,
343
enfin, à la fois léger (35 à 70 kg) et rapide, chasse en forçant les gazelles à la
course.
Exemple 2 : tant que les hommes primitifs ne savaient que chasser et cueillir,
leur quête de nourriture était inefficace et peu fiable, et permettait à peine de
survivre. Avec la pratique de la culture et de l'élevage, la production de nourriture
est devenue bien plus efficace et fiable, et la population a pu se mettre à
augmenter.
Ces deux exemples permettent de définir l'efficacité alimentaire comme le rapport de
l'énergie consommable à l'énergie dépensée pour l'obtenir. Lorsqu'on compare deux
stratégies au point de vue de cette efficacité, les énergies correspondantes doivent
être évaluées en probabilité [77] - à court et à long terme. Nous verrons ci-dessous
que ces évaluations se font automatiquement et en permanence dans notre cerveau,
adapté par l'évolution et la sélection naturelle à cette fonction indispensable.
Dans notre psychisme, la réponse du mécanisme d'évaluation à un choix envisagé,
est un affect [253], une récompense accompagnée d'une émotion : sensation
agréable ou non, peur, fierté ou honte, etc.
Les sensations positives de désir, d'euphorie, etc. sont régulées dans le cerveau
humain par une molécule, la dopamine, dont nous avons déjà parlé ; (ne pas
confondre désir et plaisir : ce dernier utilise d'autres mécanismes que le premier).
Les sensations négatives sont associées à l'acétylcholine, neurotransmetteur [176]
qui a des effets vasodilatateurs sur le système cardiovasculaire et agit sur le rythme
cardiaque, des effets sur le système gastro-intestinal, des effets inhibiteurs sur
l'activité du système nerveux central, etc.
Retenons aussi que dans notre cerveau, la comparaison à une valeur produit la
présence détectable et l'abondance mesurable d'une molécule organique. La
création de valeur en tant que conséquence d'une perception (ou - nous le verrons
plus bas - de pensées) et son utilisation dans les comparaisons nécessaires aux
jugements sont des phénomènes physiques automatiques, inévitables - bref
déterministes - expliqués sans aucune intervention transcendante.
3.6.4.6
Une signalisation permanente dans le cerveau
Notre cerveau reçoit en permanence des signaux de besoin : faim, sommeil, désir
sexuel, etc. Pour un homme, le fait même de vivre et d'avoir une conscience et un
subconscient engendre un déséquilibre permanent : nous trouvons sans cesse des
besoins à satisfaire, même après en avoir satisfait un ou plusieurs. Ces besoins
constituent le « manque d'être » dont parle Sartre [252], manque d'être qui fait de
l'homme un perpétuel insatisfait.
Et la conscience de l'homme ne se contente pas de recevoir du subconscient et de
créer à jet continu des besoins à satisfaire, elle suggère aussi des actions pour y
parvenir. C'est la présence permanente de suggestions d'action dans la conscience
de l'homme qui lui donne l'impression d'avoir toujours quelque chose à faire pour être
plus heureux et d'être toujours libre de choisir quoi faire. Pour un matérialiste
cohérent cette impression de liberté est illusoire du fait du déterminisme, nous le
verrons plus bas. A un instant donné, l'ensemble des signaux de besoin présents
dans le cerveau (et de certains signaux qui existent dans le corps en n'atteignant 344
par exemple - que la moelle épinière ou le cervelet sans atteindre le cerveau) est
comparé aux valeurs de référence innées ou acquises, comparaison qui définit les
finalités vers lesquelles l'individu ou son organisme vont tendre.
A l'aide de la machinerie cellulaire, le code génétique interprète ces signaux et agit
de manière à satisfaire ces finalités. C'est un mécanisme déterministe dont le
principe est bien connu, mais dont la complexité (le nombre de processus possibles
et leurs interactions) fait qu'on en ignore encore beaucoup de détails. Au-dessus du
niveau génétique, le système nerveux s'adapte parfois, en modifiant sa structure
pour tendre vers les nouvelles finalités ; les neurones s'adaptent et adaptent leurs
connexions. Au niveau le plus élevé, la conscience elle-même adopte la nouvelle
finalité et il arrive que certaines de ces adaptations soient irréversibles (exemple :
l'addiction à une drogue) [51]. Enfin, notre mécanisme de couches logicielles
complète ces mécanismes sous-jacents pour créer notre pensée.
Recherches récentes : The Brain Initiative [317].
3.6.4.6.1
Hiérarchie logicielle de la pensée - Une erreur des philosophes
La modélisation informatique de la pensée, de plus en plus précise aujourd'hui [279],
utilise une « hiérarchie » logicielle dont les niveaux d'abstraction croissent depuis les
processus neuronaux jusqu'à ceux de la conscience, en passant par ceux de la
mémoire. Chaque niveau est d'une complexité suffisamment modeste pour permettre
une modélisation logicielle approximative, nous en avons aujourd'hui la preuve. On y
trouve des modules logiciels sous-traitant des opérations aux niveaux inférieurs et
fonctionnant en parallèle. (Plus précisément, la structure logique des modules
fonctionnels n'est pas une hiérarchie, mais un réseau permettant des sauts de
niveau et des accès directs d'un module à plusieurs autres, situés à des niveaux
quelconques.) Chaque module logiciel peut être activé par un processus neuronal ou
d'autres modules, l'activation transmettant alors des « données » sous forme de
messages chimiques ou électrochimiques.
La compréhension du fonctionnement de la pensée et la prédiction des pensées
progresse, à l'aide de capteurs électroniques, d'instruments d'imagerie cérébrale et
d'ordinateurs. La complexité des mécanismes mettant en jeu de nombreux modules
logiciels dépasse les possibilités de représentation d'un homme, mais de moins en
moins celle de systèmes informatiques. Il restera néanmoins toujours l'influence
imprévisible du subconscient.
Pensée, déterminisme et prévisibilité
L'erreur des philosophes qui soutiennent le caractère irréductiblement transcendant,
non déterministe, de la pensée vient de leur manque de culture informatique : ils
ignorent la possibilité technique de passer des mécanismes physiques aux
processus psychiques qui font sens à l'aide d'une hiérarchie logicielle à niveaux
d'abstraction croissants. En raisonnant par analogie ils devraient pourtant faire le
rapprochement avec un ordinateur, où il faut bien qu'il existe un logiciel pour passer
du niveau électronique des processeurs et de la mémoire à la signification abstraite
des résultats produits, adaptés à la compréhension humaine.
345
Ces philosophes considèrent le matérialisme comme nécessairement réductionniste,
c'est-à-dire trop schématisant - donc abusivement simplificateur - pour une
représentation de la pensée humaine.
Peut-être leur erreur vient-elle d'une confusion entre matérialisme et
déterminisme : la prédiction du résultat ou de l'évolution d'un processus physique
relève du déterminisme, qui suppose le matérialisme mais ne se confond pas avec
lui.
Peut-être voudraient-ils que la doctrine matérialiste soit, en dernière analyse,
fausse, pour que l'Homme garde une dimension mystérieuse bien plus passionnante
que celle d'une machine déterministe ? Mais sans leur faire ce procès d'intention, je
vais expliquer maintenant comment le postulat matérialiste du déterminisme permet,
de nos jours, d'expliquer le caractère imprévisible de la pensée qu'ils constatent.
Ces philosophes croient donc que la pensée humaine est autonome, c'est-à-dire
capable de raisonner et décider indépendamment de tout processus déterministe.
Comme on ne conçoit pas une pensée sans cerveau, par définition même de la
pensée, l'autonomie invoquée par ces philosophes ne pourrait provenir que de
processus psychiques à évolutions ou résultats imprévisibles. Je démontre dans ce
livre que la nature est toujours déterministe, et aussi qu'une évolution ne comprenant
que des processus déterministes peut avoir un résultat imprévisible.
Nous avons vu un exemple montrant que l'effet global d'un grand nombre de
phénomènes déterministes peut être imprévisible, même si chacun est simple et à
résultat prévisible. Cet exemple illustre bien le problème de prévision des
phénomènes du vivant, et particulièrement celui de la pensée : bien que les
mécanismes génétiques relèvent de la biologie moléculaire, complètement
déterministe, pour toutes les cellules du corps donc pour les neurones ; bien que
l'activation d'un neurone par un autre mette en jeu un millier de protéines et une
douzaine de réactions de biochimie aujourd'hui connues et déterministes, la
prévision informatique du déroulement d'une fonction vitale commence seulement à
être possible, et uniquement pour un organisme simple [279]. Mais notre méthode de
modélisation des fonctions psychiques par hiérarchie de modules logiciels à niveaux
d'abstraction croissants est valable ; grâce à des systèmes informatiques toujours
plus puissants, et la constitution progressive d'une bibliothèque de modules logiciels
réutilisables, nous pourrons prédire de mieux en mieux certains processus
psychiques.
Le caractère imprévisible de la pensée humaine ne vient donc pas d'une quelconque
autonomie de l'homme qui contredirait le postulat de causalité à la base du
déterminisme, ni de l'impossibilité de connaître les processus du vivant au niveau
neuronal. Il vient d'abord de la complexité des processus de haut niveau
d'abstraction qui nous intéressent, que nous commençons seulement à savoir
modéliser avec une hiérarchie de modules fonctionnels interagissants et fonctionnant
simultanément. Il vient ensuite de l'existence du subconscient, dont l'action nous
échappe par définition mais renforce la complexité et l'imprévisibilité.
En pratique, donc, le libre arbitre d'un homme est une réalité, ainsi que son
incapacité à choisir les valeurs qui régissent ses décisions - rendant son libre arbitre
illusoire. Un homme est imprévisible parce qu'il est trop complexe, pas parce que le
déterminisme est erroné ou la modélisation qu'il utilise trop réductionniste.
346
Action et réaction
La réponse du code génétique et des neurones aux signaux de besoin ou de
souffrance se traduit par des actions de l'organisme : mouvements musculaires,
accélération du cœur, pensées, etc. Le cerveau est averti en permanence du résultat
de chacune des actions dont il doit avoir connaissance par des mécanismes
d'évaluation qui constituent des boucles de réaction (retour d'expérience) et lui font
savoir s'il s'écarte ou se rapproche de son but ou d'un des buts qu'il poursuit à cet
instant-là. Chaque action provoque donc une ou plusieurs réactions, dont le cerveau
(ou la moelle épinière, ou le cervelet) tient compte pour poursuivre l'action,
l'interrompre ou la réorienter ; ce mode de contrôle par boucle d'action-évaluationréaction est utilisé par tous les automatismes, ceux des êtres vivants comme ceux
que l'homme fabrique. C'est aussi un mécanisme déterministe.

Exemple 1 : le freinage ABS d'un véhicule est géré par un calculateur qui évalue
à chaque instant le ralentissement de chaque roue, pour empêcher un blocage
intempestif en diminuant le couple de freinage ; l'action (freinage) est évaluée
par un capteur de vitesse de rotation de roue relié au calculateur et contrecarrée
par une réaction de diminution du freinage.

Exemple 2 : l'homme se tient debout grâce à un mécanisme automatique de
contrôle assez complexe, dont voici deux fonctions. La détection de la position
de la tête se fait grâce aux canaux semi-circulaires de l'oreille interne, et l'action
sur la contraction des muscles passe (entre autres) par le système de régulation
médullaire et supramédullaire de la motricité. Le cervelet joue un rôle important
dans la coordination automatique et non consciente des muscles, et dans
l'adaptation et l'apprentissage des réflexes.
3.6.4.7
Les deux niveaux du déterminisme physiologique
Les recherches récentes [74] qui cherchent à comprendre comment un homme (et
plus généralement un animal) prend une décision ont conduit à distinguer deux
niveaux de processus : le niveau supérieur de l'individu tout entier et le niveau
inférieur des processus psychomoteurs du cerveau et du cervelet.

Au niveau supérieur, il apparaît que les décisions sont orientées vers les besoins
stratégiques, à long terme ou permanents, comme la préservation de la vie
individuelle et celle de l'espèce, besoins qui favorisent des solutions comme
celles de l'efficacité énergétique de l'organisme tout entier ;

Au niveau inférieur, les décisions sont orientées vers la satisfaction de besoins
immédiats, comme de consommer quelque chose qui a bon goût plutôt que
quelque chose qui a mauvais goût, ou celle de choisir entre une attitude altruiste
et une attitude égoïste (voir ci-dessous).
Bien entendu, la distinction entre ces deux niveaux est artificielle, et justifiée
seulement par le besoin de comprendre les processus décisionnels ; l'esprit humain
a une unité qui fait que les processus des divers niveaux coopèrent.
3.6.4.8
Reconnaissance de formes, structures, processus et intentions
Des expériences ont montré que lorsqu'un homme reconnaît une forme géométrique
qu'il voit, par exemple un carré, son esprit ne procède pas par étapes telles qu'une
reconnaissance du fait que c'est une figure polygonale, que les côtés sont droits et
au nombre de quatre, qu'ils sont égaux et qu'il y a quatre angles droits, ensemble de
347
propriétés qui définissent un carré. Il n'utilise une telle approche progressive que
pour les formes ou images qu'il ne reconnaît pas d'emblée, parce qu'elles sont
nouvelles pour lui ou complexes.
Reconnaissance des formes et des images
La reconnaissance des formes et des images par l'esprit humain est un phénomène
automatique, instantané, basé sur des fonctions subconscientes spécialisées de son
cerveau. C'est ainsi qu'un homme reconnaît plus facilement et plus vite un visage
qu'un mot de sept lettres : son cerveau est adapté à une telle reconnaissance, sa
mémoire à long terme et la manière dont elle est utilisée le prédisposent à une
remarquable performance en ce domaine. Un homme peut même reconnaître une
personne dont certains traits ont changé : port de lunettes, coiffure différente, etc.:
l'association d'une perception visuelle à une forme mémorisée fonctionne même en
présence de caractéristiques absentes ou modifiées, se contentant souvent d'une
certitude approximative.
Reconnaissance de structures
La reconnaissance de forme peut s'appuyer sur la faculté de l'esprit de se créer des
représentations abstraites et de les manipuler. Un homme peut ainsi se représenter
une organisation hiérarchisée sous forme d'une arborescence ; il peut aussi se
représenter des configurations de pièces dans un jeu d'échecs pour reconnaître
certaines situations de jeu. Le recours à des structures abstraites permet de
remplacer la mémorisation de nombreuses formes particulières par celle d'un
nombre plus réduit de types de structures, que l'esprit pourra mémoriser et
reconnaître, et à qui il pourra attribuer des propriétés particulières.
Reconnaissance de processus
L'esprit humain peut aussi mémoriser les étapes d'un processus. Cette faculté est
d'abord utilisée pour automatiser et simplifier des processus de la vie courante, tels
que marcher ou courir : l'ordre dans lequel les nombreux muscles impliqués doivent
agir et leur coordination sont mémorisés, puis chaque pas est déclenché et se
déroule sans effort mental. Cette faculté sert ensuite à mémoriser des processus
complexes comme les gestes d'un métier, ou ceux de la manipulation d'un
instrument de musique pour obtenir un son particulier.
Mais l'esprit humain est aussi capable de reconnaître un processus, par exemple
lorsqu'une autre personne effectue un geste. C'est ainsi que nous savons
reconnaître et apprécier les gestes d'un mime qui fait semblant d'effectuer des
actions de la vie courante. L'esprit humain reconnaît instantanément,
automatiquement et sans effort, une suite d'étapes, aussi facilement qu'il reconnaît
une structure. En mathématiques, on reconnaît souvent un type de raisonnement,
caractérisé par un enchaînement d'étapes bien particulier. Et, comme en matière de
reconnaissance de forme, l'esprit humain reconnaît souvent des processus même
lorsqu'une étape manque ou a changé.
Reconnaissance d'intention
La reconnaissance de formes et de processus a été utile aux hommes primitifs
comme à de nombreux animaux. L'homme qui voyait une silhouette de lion
reconnaissait cet animal dangereux, et il pouvait aussi reconnaître si le lion
s'approchait de lui ou non. De manière générale, l'homme a la possibilité de prévoir
348
les conséquences de la présence et du comportement d'autres hommes, d'animaux
et d'objets, les conséquences potentielles étant mémorisées sous forme
d'associations avec des formes et des processus connus. L'homme primitif savait
reconnaître une intention hostile chez d'autres hommes ou chez des animaux.
Nous savons reconnaître la signification d'un ton de voix, d'une expression, d'une
suite de gestes, et nous le faisons instinctivement ; en fait, nous ne pouvons même
pas nous empêcher de reconnaître l'intention ou le caractère général d'une personne
quand nous la voyons pour la première fois. Cette reconnaissance est si
automatique, si rapide, qu'il faut un effort pour s'empêcher de juger la personne
d'après son aspect et son comportement lors d'une première rencontre. Beaucoup
de gens ne font pas cet effort si le jugement n'entre pas en conflit avec l'éventuelle
opinion qu'ils ont déjà. Beaucoup de citoyens votent pour un candidat qui leur a fait
instinctivement une bonne impression, mais dont ils n'ont pas analysé les
propositions et promesses en réfléchissant à leur réalisme, leur faisabilité et leur
pertinence.
Conclusion
Chaque fois que l'enjeu est important, une pensée rigoureuse exige donc une
attitude de remise en cause de notre jugement, pour en identifier les apriori et
examiner aussi les faits qui le contredisent et qui prouveraient notre erreur.
3.6.4.9
Intuition d'abord, justification après
L'approche intuitive, irraisonnée, est même celle de beaucoup de personnages
publics au pouvoir, malgré leurs responsabilités. Ces personnes se forment souvent
une opinion à priori, par intuition ou jugement de valeur basé sur un critère de
morale, d'idéologie ou d'intérêt personnel, opinion que leur esprit ne cherche ensuite
qu'à justifier à posteriori, par des raisonnements plus ou moins rigoureux. Il suffit de
suivre à la télévision des débats ou des interviews de politiciens pour s'apercevoir à
quel point la plupart basent leurs jugements politiques sur des intuitions justifiées à
posteriori ou même des illusions, au lieu de les baser sur des analyses chiffrées et
des raisonnements structurés ; quelle confiance accorder alors à leurs propositions
ou leurs décisions ?
Notre cerveau évalue en permanence, automatiquement, les informations issues de
ses sens ou de son imagination, en leur associant un affect [253] agréable ou
désagréable. C'est le cas notamment pour le visage d'une personne : dans la
seconde qui suit l'instant où nous l'avons vue pour la première fois, notre cerveau
s'est fait une première opinion sur la personne, opinion basée sur une analogie avec
des visages ou expressions semblables déjà vus et une forte dose d'intuition. Après
le visage, la voix et les gestes nous influencent de la même façon.
La plupart des gens en restent à cette première opinion, hélas bien superficielle ; et
lorsque le besoin de juger la personne devient conscient - par exemple s'il s'agit d'un
politicien qui sollicite leur vote – ils essaient de construire un raisonnement qui justifie
leur première impression, en cherchant les informations conscientes qui la
confirment et en ignorant les informations qui la contredisent. Ce phénomène a été
étudié en détail par Daniel Kahneman, prix Nobel d'économie 2002, dans un livre qui
a connu un grand succès [316].
349
Si un objet me plaît au point de vouloir l'acheter, je cherche à justifier l'effort financier
par un raisonnement qui confirme mon désir, apparu sans justification ; je ne suis
pas objectif !
Dans la plupart des situations où il est important qu'ils aient une opinion motivée, la
majorité des gens s'en tiennent, hélas, à cette approche en deux temps : opinion
basée sur une apparence, des apriori, un affect ou une intuition, puis raisonnement
pour la justifier. Ils ne font que rarement l'effort de chercher des arguments
contraires.
3.6.4.10
Evaluation permanente parallèle de situations hypothétiques
L'esprit humain ne se contente pas d'évaluer les seules situations réelles, issues
directement de ses perceptions ou des réflexions basées sur celles-ci. Il évalue aussi
en permanence des situations imaginaires : si je vois un jeune enfant seul au bord
d'une piscine, j'imagine qu'il peut y tomber et se noyer, et je juge cette possibilité
inquiétante.
Ces situations imaginaires peuvent concerner l'avenir, mais aussi le passé (« Ah, si
je ne m'étais pas trompé hier ! »). Elles sont en général multi-étapes, chaque
situation-conséquence envisagée et évaluée ayant elle-même des conséquences
hypothétiques construites et évaluées. Ce processus peut se poursuivre jusqu'à ce
qu'une situation paraisse par trop improbable, ou psychologiquement inacceptable
même si elle peut se produire. Il est analogue à la réflexion d'un joueur d'échecs ou
de dames qui évalue les mouvements possibles plusieurs coups à l'avance.
Le cerveau effectue aussi, en général, consciemment ou non, plusieurs évaluations
de situation en même temps, en parallèle. Enfin, profitant de sa vaste mémoire et
désirant faire l'économie de la réévaluation de situations déjà évaluées, il mémorise
ses résultats d'évaluation.
3.6.4.11
"Le monde comme volonté et représentation" de Schopenhauer
Dans la préface du monumental ouvrage portant ce titre [202], œuvre majeure du
philosophe et essayiste Schopenhauer, on lit page 16 :
"La raison, les concepts, ne constituent qu'une mince pellicule recouvrant un
fonds primitif, obscur : la volonté. [Celle-ci est] sans fondement, c'est-à-dire
radicalement hétérogène au principe de raison, qui régit l'usage du concept.
Voilà pourquoi d'ailleurs l'instinct, qui rapproche l'homme de la bête, est toujours
plus fort que la raison qui les distingue. Quand l'instinct parle, la raison doit
nécessairement se taire ou alors se mettre à son service."
Pour Schopenhauer, il existe à tout moment chez un homme une volonté d'agir pour
laquelle la raison n'est qu'un outil, comme la force physique par exemple ; dans la
nature, l'évolution de chaque situation est gouvernée par une « volonté naturante ».
Deux ans après avoir, pour la première fois, publié ce livre-ci sur Internet, j'ai pris
connaissance du livre de Schopenhauer. Je suis frappé de la forte analogie existant
entre son concept moniste de « volonté régissant toutes les lois de la nature
naturante » et mon concept moniste de déterminisme étendu.
350
Mais alors que Schopenhauer est parti d'une intuition métaphysique, la volonté, dont
il justifie à grand peine dans son livre qu'elle régit la nature (donc le Monde) comme
la volonté d'un homme régit ses actes, je suis parti des lois objectives de la physique
pour définir leur principe d'application unique, le déterminisme étendu.
Schopenhauer a construit sa doctrine pour atteindre par la métaphysique l'essence
des choses, qu'il ne peut atteindre en remontant une chaîne de causalité jusqu'à la
cause première – concept dont il a montré l'absurdité.
Bénéficiant de connaissances en physique et cosmologie indisponibles de son
temps, je peux arrêter les causes premières à l'inflation qui a précédé le Big Bang ; je
peux définir de mieux en mieux l'essence des êtres vivants et des objets à partir de
leurs propriétés organiques et fonctionnelles, mesurées lorsque c'est possible avec
les unités de la physique ; et je peux - chaque jour plus précisément - décrire le
fonctionnement du psychisme humain à partir d'un modèle informatique hiérarchisé,
dont les variables reposent sur l'héritage génétique, l'acquis culturel et le contexte de
chaque instant.
3.6.4.12
Mémorisation et acquisition d'expérience - Déterminisme culturel
Un autre mécanisme intervient pour perfectionner encore plus les pensées et
décisions : le cerveau mémorise les actions (et les pensées) et leur résultat, de façon
à acquérir de l'expérience.
3.6.4.12.1 Mécanismes physiologiques de la mémoire
Sur le plan physiologique, la mémorisation est une création ou une modification de
certaines synapses (éléments de contact entre deux neurones). Lorsqu'un neurone
émetteur envoie un signal à un neurone récepteur, ce signal passe par une synapse
[268]. Le signal lui-même est une émission chimique de molécules qui excitent ou
inhibent la synapse, agissant ainsi sur le neurone récepteur.
Il y a deux catégories de mécanismes de mémoire :

La mémoire à court terme, de capacité limitée et à oubli rapide. Le nombre
d'éléments (nombres, mots, phrases, etc.) qu'elle retient est limité à 7 en
moyenne chez un homme, et leur durée de mémorisation ne dépasse pas
quelques secondes [287]. L'enregistrement dans cette mémoire se fait par
augmentation de la quantité de molécules excitatrices.

La mémoire à long terme, de grande capacité et à oubli progressif (souvent sur
des années). Cette mémoire fonctionne par fabrication de nouvelles synapses,
un seul neurone pouvant se relier par synapses à plus de 1000 autres neurones.
Et il y a deux sortes de mémoires à long terme : la mémoire consciente et la
mémoire inconsciente, qui stocke des automatismes.
Un apprentissage (par exemple par stimulations répétées) donne lieu à une
mémorisation à long terme, où chaque signal reçu par une synapse est transmis au
noyau du neurone récepteur. Les chromosomes de celui-ci activent des gènes
capables de déclencher à leur tour la formation de nouvelles synapses [268].
Chaque souvenir est donc une modification des connexions du cerveau. Les
contacts synaptiques se font et se défont en fonction des signaux électriques et
chimiques qui les animent ([272] page 22).
351
Il faut aussi savoir que le contenu de la mémoire humaine à long terme se
transforme continuellement, contrairement à une mémoire magnétique ou flash où
une information perdure jusqu'à son effacement délibéré. La transformation résulte
d'une part de l'ontogenèse [78], d'autre part de l'organisation des informations par
l'esprit. Cette organisation est en fait une réorganisation continue, qui adapte en
permanence les connaissances de l'homme à son environnement, automatiquement.
Elle n'est exempte ni d'erreurs (qui provoquent oublis ou déformations de
l'information stockée) ni de perfectionnements (qui expliquent certaines améliorations
surprenantes de la qualité des souvenirs après plusieurs mois).
Selon [113], il existe dans le cortex préfrontal du cerveau un mécanisme automatique
d'effacement de souvenirs, actif notamment pour les souvenirs désagréables. Pour
un tel souvenir, ce mécanisme efface d'abord les perceptions sensorielles, puis ceux
de ses processus de mémorisation et enfin ceux qui concernent les émotions
associées. Cet oubli se produit de manière involontaire : un homme ne peut pas
effacer sa mémoire comme le ferait un ordinateur. Mais il arrive qu'un souvenir oublié
laisse des traces dans le subconscient (Freud parlait de mémoire réprimée, qui peut
être à l'origine de névroses). L'oubli d'événements traumatisants permet à l'homme
de continuer à vivre, à espérer et à agir sans se laisser arrêter par trop de souvenirs
douloureux. Mais il a aussi l'inconvénient de rendre la mémoire sélective…
Du point de vue déterministe, un cycle d'utilisation de la mémoire à long terme, avec
ses phases successives de stockage, transformation, « lecture » pour utilisation et
parfois oubli, a donc un caractère partiellement imprévisible et peu fiable.
Le rôle du sommeil
Pendant son sommeil, un sujet réorganise et associe les informations enregistrées
dans sa mémoire. Pendant les phases de sommeil profond, la réorganisation associe
des paires d'informations (exemple : un mot avec un objet). Pendant les phases de
sommeil paradoxal, la réorganisation crée des structures permettant par exemple la
reconnaissance de formes, de schémas mentaux, de suites d'étapes. Ces
phénomènes de réorganisation sont de mieux en mieux connus. Ils expliquent
notamment pourquoi, au réveil, certains sujets ont des intuitions concernant la
solution d'un problème avec lequel ils se battaient jusque-là sans succès : voir le
paragraphe "Mécanismes de l'intuition", [284] et [229].
3.6.4.12.2 Acquisition d'expérience
Le mécanisme naturel d'acquisition d'expérience est assez bien compris pour être
mis en œuvre dans des logiciels d'application parfaitement déterministes dits
« réseaux neuronaux ».
Réseaux neuronaux
Voici un exemple d'application de réseau neuronal. La reconnaissance des billets de
banque (exemple : billets de 100 €) pour déterminer s'ils sont vrais ou faux est
effectuée par un appareil comprenant un scanner (qui numérise l'image de billets
qu'on lui présente), un ordinateur (qui exécute l'application de reconnaissance) et un
voyant qui affiche le résultat : vert si le billet est vrai, rouge s'il est faux.
Pour l'apprentissage, on fait numériser par l'appareil de nombreux billets en lui
donnant à chaque fois le diagnostic humain : vrai ou faux. Plus on lui donne de tels
352
exemples, plus il accumule d'expérience et moins il se trompe par la suite en
déclarant faux des billets vrais ou vrais des billets faux. Avec une expérience de
quelques milliers de billets on arrive à des taux d'erreur très faibles, même en
présence de billets usagés ou sales. L'appareil a appris par accumulation
d'expérience ; à aucun moment on ne lui a donné de règle de raisonnement explicite.
Ce mode de fonctionnement est celui de la mémoire associative de l'homme, où les
associations se font automatiquement grâce à l'aptitude du cerveau à trouver des
analogies entre informations mémorisées, à les évaluer, et à relier les informations
associées utiles en une relation mémorisée à son tour. Il y a là une auto-organisation
des informations, capable, par exemple, de corriger des informations erronées, de
compléter des informations incomplètes, de généraliser par induction à partir d'un
nombre de cas limités et de reconnaître des formes ou des situations pour pouvoir
ensuite les évaluer à leur tour.
Nous sommes là dans un cas de déterminisme particulier : l'algorithme déterministe
du réseau neuronal construit ses règles de calcul de la conséquence d'une cause par
apprentissage de cas d'espèce, et les applique avec une marge d'erreur de type
statistique due aux inévitables erreurs de la numérisation et de la comparaison.
Acquisition d'expérience par un homme
L'apprentissage des cas d'espèce est un processus à étapes. Chaque étape
commence par une perception, une expérience ou un essai, puis analyse son
résultat en fonction des valeurs existantes, en déduit les erreurs de pensée ou de
comportement lorsque la qualité du résultat s'éloigne de l'objectif, corrige ces erreurs
et passe à l'étape suivante. A chaque étape qu'il réussit à franchir, le cerveau a une
sensation de récompense : le plaisir correspondant est sa manière de savoir qu'il a
réussi quelque chose.
Exemples :

C'est ainsi qu'un jeune enfant apprend à marcher : d'abord il apprend à se tenir
debout et à effectuer sans y penser les efforts musculaires nécessaires à cette
station debout, puis il apprend à rompre cet équilibre pour déplacer une jambe,
etc.

Tout le monde connaît les expériences de Pavlov, sur les « réflexes
conditionnés » acquis par un animal suite à des expériences vécues. L'animal
peut ainsi apprendre à associer l'audition d'un bruit à l'apparition de nourriture
qui le fait saliver ; par la suite, même si le bruit apparaît sans nourriture, l'animal
salive quand même. Pavlov est ainsi parvenu à préciser des aspects de l'activité
nerveuse supérieure qui concernent l'excitation et l'inhibition.

Lorsqu'un étudiant apprend une théorie scientifique nouvelle, il se représente
ses divers aspects (concepts, méthodes…) au moyen d'abstractions, qu'il
complète et précise progressivement au vu des textes qu'il lit et des exercices
qu'il fait, jusqu'à ce qu'il ait le sentiment d'avoir compris. Il s'est ainsi construit
progressivement des représentations abstraites, et des processus mentaux qui
les relient de manière plus ou moins automatique. Une fois habitué aux
nouvelles représentations et processus, il trouve la théorie bien moins abstraite.
353
Apprendre ainsi présente d'immenses avantages : l'adaptabilité à toutes sortes de
situations nouvelles, et la prise de décisions malgré des informations incomplètes ou
partiellement contradictoires. S'il ne savait appliquer que des recettes toutes faites,
comme un robot, l'homme ne pourrait vivre que dans un environnement précis, celui
pour lequel ces recettes ont été faites ; il n'aurait pas survécu dans la compétition
des espèces où seuls les meilleurs survivent. L'adaptabilité est une caractéristique
de l'intelligence : l'homme est plus capable d'adaptation que les animaux parce qu'il
est plus intelligent, ou il peut être qualifié de plus intelligent parce qu'il s'adapte
mieux. Chaque homme profite de l'expérience qu'il a acquise lui-même, mais aussi
de celle que lui ont transmise les autres hommes ; et l'invention de l'écriture, puis des
techniques de communication, a fortement amplifié l'accumulation et la transmission
des connaissances.
Pendant qu'il apprend et mémorise, le cerveau (aidé par le cervelet) se construit des
raccourcis lui permettant de représenter et de déclencher des procédures multiétapes avec un seul signal, comme la pression sur une touche de fonction de
téléphone portable déclenche toute la procédure d'appel d'un correspondant. Ces
procédures, enregistrées dans la mémoire, permettent de gagner du temps en
remplaçant des étapes précédées chacune d'une réflexion par une procédure multiétapes devenue une habitude. L'entraînement d'un danseur, d'un musicien ou d'un
sportif consiste notamment à construire ces habitudes pour en faire des
automatismes. Voir aussi "Importance des automatismes dans la pensée humaine".
L'acquisition d'expérience détermine l'évolution de chaque homme, de chaque
peuple et de l'humanité. Un de ses aspects les plus importants est la culture,
transmise de génération en génération. Une fois incorporée au subconscient par un
homme, la culture l'influence tellement qu'elle engendre un déterminisme culturel
(exemple : [12]).
3.6.4.12.3 La mémoire sélective
Toute information susceptible d'être enregistrée en mémoire à long terme commence
par être automatiquement évaluée : le cerveau d'une personne l'associe à une valeur
(positive ou négative) et attribue à cette association un poids (c'est-à-dire une
importance pour la personne). Les informations associées à certaines valeurs
négatives ou de trop peu de poids sont alors ignorées, et leur mémorisation n'a pas
lieu.
Cela permet à la mémoire de ne pas se charger d'informations inutiles, mais de
temps en temps cela provoque des refus d'enregistrement néfastes. En effet, le
poids attribué peut dépendre du contexte psychologique, très subjectif ; il arrive
alors, par exemple, que notre subconscient refuse la mémorisation d'informations qui
lui déplaisent.
Ainsi, comme je n'aime pas accompagner ma femme au marché, il arrive qu'elle
me demande de l'accompagner le lendemain pour porter des achats lourds, que
je lui réponde « oui », et que j'oublie aussitôt ma promesse comme si je ne
l'avais jamais faite !
Il arrive aussi que, dans la transformation continuelle des informations stockées en
mémoire à long terme, une information considérée comme peu importante ou
déplaisante soit peu à peu effacée, ou déformée pour la rendre plus acceptable.
354
3.6.4.13
Désirs et satisfaction artificiels. Drogues
Les mécanismes physiologiques de besoin, de désir et de choix peuvent être
détournés au profit de drogues : une drogue qui crée une dépendance modifie un
mécanisme de choix de l'organisme, en créant un besoin de cette drogue et en
procurant une récompense agréable lorsqu'on le satisfait.
Le tabac, l'alcool et l'héroïne sont des exemples connus de drogues créant une
dépendance. Et d'après les recherches expérimentales [54], une boisson comme le
Coca-Cola ou une substance comme la caféine agissent sur la sécrétion de
dopamine par l'intermédiaire du noyau accumbens [254] du cerveau, connecté au
cortex préfrontal qui est un de ses centres de décision ; elles stimulent ainsi le besoin
(l'anticipation de plaisir) d'en absorber, sans pour autant créer une dépendance
comme la cocaïne, drogue extraite de la coca.
3.6.4.14
Des pensées peuvent aussi se comporter comme des drogues
Il est important de comprendre que des pensées ou des affects [253] peuvent aussi
se comporter comme des drogues, en suscitant des désirs et en promettant des
récompenses en réponse à certains choix d'action. Du point de vue physiologique,
dans le cerveau, le mécanisme de ces désirs et récompenses passe par la dopamine
comme pour les perceptions physiques.
Ces idées et affects purement psychiques peuvent aller, dans le cas de terroristes,
jusqu'à des pulsions de mort et des promesses de récompense du suicide ou de la
souffrance gratuite infligée à autrui.
Les récompenses promises sont associées à la satisfaction de valeurs morales
incorporées au subconscient, comme l'altruisme, l'équité ou la fierté, valeurs dont
nous sommes ou non conscients. Ces valeurs peuvent faire partie de notre culture et
nous avoir été transmises par nos parents, notre éducation ou notre vie en société.
Elles peuvent aussi nous avoir été inculquées par la pression sociale, la culture du
groupe auquel nous appartenons. Elles peuvent, enfin, résulter d'une autosuggestion
et/ou d'une amplification par l'imagination, amplification qui peut aller jusqu'à
l'obsession.
C'est ainsi qu'on peut expliquer l'endoctrinement de jeunes hommes et femmes, dont
des manipulateurs font des terroristes au nom de principes religieux mal interprétés,
de principes de solidarité entre peuples obligeant des musulmans à tuer des juifs et
des chrétiens pour venger des coreligionnaires Palestiniens, etc. C'est ainsi qu'une
sous-culture de banlieue produit des casseurs en révolte contre la société française
[169], casseurs qui attaquent des infirmières et des pompiers venus secourir leurs
voisins, ou brûlent des voitures, le tout pour défendre le « territoire » où ils trafiquent
contre ces représentants de l'ordre social républicain.
Les valeurs incorporées au subconscient font partie de la culture et ne peuvent
évoluer que lentement. Chez un peuple entier, cette évolution peut demander un
siècle ou plus. Preuve : la laïcisation de la Turquie, commencée par Atatürk en 1924
et poursuivie depuis avec l'aide musclée de l'armée, n'a pas encore fini d'imposer
des idées démocratiques à l'ensemble de la population turque [13]. La culture
musulmane de ce peuple est encore bien présente et regagne en ce moment de plus
355
en plus de terrain, avec ses valeurs d'inégalité des femmes, ses crimes d'honneur, la
substitution de la loi islamiste à la loi laïque, etc. [87]
Par contre, la forte influence d'une campagne de publicité habile sur les décisions
des consommateurs ou les votes des électeurs montre qu'on peut influencer les
opinions des gens en quelques jours ou quelques semaines, au point qu'ils agissent
en fonction de ces nouvelles opinions, contrairement à des valeurs plus anciennes
qu'ils avaient et qu'ils se mettent à transgresser.
3.6.5
3.6.5.1
Mécanismes psychiques non algorithmiques ou imprévisibles
Définitions
3.6.5.1.1
Mécanisme psychique algorithmique
Je définis un mécanisme psychique comme algorithmique s'il peut être simulé par un
ordinateur. C'est le cas, par exemple, du calcul mental arithmétique, et aussi du
raisonnement déductif pur, simulable par calcul des propositions ou des prédicats. Il
existe :

Des nombres et des problèmes non calculables, au sens précis donné plus
haut ;

Des mécanismes psychiques non algorithmiques, parfois subconscients, tels
que :
 Retrouver un souvenir dans sa mémoire ;
 L'intuition [141] ;
 Les affects [253] ;
 La reconnaissance automatique d'images, de structures ou de procédures ;
 Les associations d'idées effectuées par le cerveau, consciemment ou non,
permettant des raisonnements par analogie, des intuitions et l'apparition
inexplicable de pensées, de certitudes ou d'affects ;
 Les représentations de réalités telles que des images ou des procédures, et
les représentations d'abstractions.
Au plus bas niveau, ces mécanismes psychiques sont déterministes, car
comprenant exclusivement des mécanismes physiologiques sous-jacents
déterministes. Mais en pratique ils peuvent être impossibles à décrire par un
algorithme parce qu'on n'en connaît pas assez les mécanismes d'interaction
(notamment ceux qui sont subconscients), et parce que l'effort de rédaction de
l'algorithme serait démesuré par rapport à son intérêt. Nous avons déjà vu que le
caractère structurellement déterministe d'un processus n'entraînait pas
nécessairement la prédictibilité de son résultat.
Ainsi, à partir des mêmes souvenirs d'une personne, un rapprochement d'idées,
une intuition ou une certitude peuvent naître de son état du moment : santé,
sensation de faim ou soif, affect récent, etc. L'instant d'avant ou l'instant d'après,
dans un contexte un peu différent, les pensées seraient autres.
Nous avons aussi vu que le subconscient entretient constamment des pensées
qui échappent à tout contrôle de la conscience et à toute origine rationnelle.

Des définitions et processus mentaux déterministes mais non calculables.
356
Je considère comme algorithmiques les fonctionnements suivants d'un ordinateur :

Les logiciels d'application : gestion, calculs scientifiques ou techniques, gestion
de processus industriels, automates et pilotes automatiques,
télécommunications (routeurs, autocommutateurs…), etc. ;

Les logiciels système et outils de développement de programmes : systèmes
d'exploitation, compilateurs, générateurs d'application et interpréteurs, etc.

Le calcul parallèle, qu'il porte en même temps sur plusieurs problèmes distincts
ou sur plusieurs groupes distincts de données d'un même problème, comme
dans les traitements d'images ou les calculs matriciels ;
Un être humain ne peut pas, consciemment, réfléchir à plusieurs choses en
même temps, mais son subconscient le peut et le fait.

L'intelligence artificielle, application de calcul des prédicats correspondant à une
activité donnée dont l'homme fournit les axiomes et règles de déduction, ainsi
que des applications spécifiques associées à certains prédicats (diagnostic
médical…)

La logique floue et l'autoapprentissage limités à un problème précis, avec un
logiciel de réseau neuronal (reconnaissance d'images numérisées de visages ou
de plaques d'immatriculation…) ; Exemple : [331]

La génération automatique de programmes sur-mesure, à partir de jeux de
données fournis et avec un logiciel générateur écrit à l'avance par un
programmeur.
3.6.5.1.2
Mécanisme psychique déterministe
Conformément à la définition du déterminisme scientifique traditionnel, je définis un
mécanisme psychique comme déterministe chez une personne donnée, si :

Il résulte à coup sûr d'une cause connue sans laquelle il ne peut se déclencher
chez cette personne ;

Et si son déroulement à partir d'une même cause est reproductible (donc stable
dans le temps).
Cette définition contraignante exclut la possibilité de conséquences multiples d'une
cause donnée et la possibilité de résultats imprévisibles. En voici une critique.
Comparaison et critique
Tout mécanisme psychique algorithmique est déterministe, mais inversement, tout
mécanisme psychique déterministe n'a pas nécessairement des résultats prévisibles.
La définition ci-dessus d'un mécanisme psychique déterministe est en général trop
rigoureuse pour s'appliquer à une personne donnée, notamment parce qu'elle exclut
les mécanismes subconscients. Une personne utilisera plus souvent soit des
mécanismes psychiques algorithmiques mis en œuvre dans des cas simples comme
le calcul de 2 + 2, soit des raisonnements à résultat imprédictible. C'est pourquoi
nous allons étudier des aspects du déterminisme psychique à travers quelques
caractéristiques de la conscience.
357
3.6.5.2
La conscience
3.6.5.2.1
Quelques rappels
Par définition, la conscience est une relation entre un sujet et un objet : le sujet a
conscience de l'objet. L'objet de sa conscience est une chose, une personne, le sujet
lui-même ou une idée. Quel que soit son objet, toute conscience est en même temps
conscience de soi, comme sujet, comme centre de la conscience, comme acte de
conscience en train de se faire. La conscience est donc aussi réflexive : dans la
représentation de la réalité que chacun a à chaque instant il y a une représentation
de soi-même, et de ses interactions avec cette réalité.
La perception physiologique des phénomènes est l'origine de toutes les autres
formes de connaissance du monde physique. A l'exception de domaines
scientifiques précis comme la physique quantique, décrire un phénomène c'est
décrire une perception ; toute conscience est, par essence, de nature perceptive. Les
mécanismes psychiques de la conscience ont une dimension neurologique, visible
lorsqu'on enregistre les signaux électriques du cerveau, et une pathologie affectant
les neurones affecte la conscience des individus atteints.
Le sujet qui prend conscience du monde qui l'entoure organise ce monde en s'en
faisant une représentation, modèle mental de sa structure et de son fonctionnement.
La perception du monde est par essence subjective, différente avec chaque sujet.
Elle a aussi une dimension affective personnelle, très importante car le moteur de la
relation de conscience est l'affectivité.
Ce point est très important : nous ne nous intéressons à une chose que dans la
mesure où nous y trouvons un intérêt, c'est-à-dire si par sa présence ou absence,
son action, etc., elle nous concerne de manière positive (agréable, prometteuse) ou
négative (désagréable, redoutable). Toute conscience est donc accompagnée d'un
jugement de valeur par le sujet sur l'impact réel ou potentiel de l'objet sur lui ou sur
une chose à laquelle il attribue une valeur. Les deux modes du sentiment - aimer ou
détester - avec l'émotion correspondante, structurent le monde perçu par un sujet.
Un sujet peut s'intéresser à un objet parce qu'il suscite une émotion, ou
simplement par curiosité (le sujet espère tirer satisfaction du fait d'en savoir plus sur
l'objet ou de le comprendre). Le contraire de l'intérêt est l'indifférence : le sujet ne voit
pas en quoi l'objet le concerne.
Je ne peux connaître du monde qu'une extension de ce que je suis déjà, car toute
nouvelle représentation que ma conscience m'en construit est nécessairement basée
sur des connaissances, des aprioris et méthodes de pensée antérieures. Mais la
prise de conscience apporte une relation nouvelle. En même temps, elle corrige ce
que je croyais du monde extérieur ou ce que j'espérais être, et qui s'avère
contradictoire avec mon expérience ou mon opinion, ou au moins différent. Elle
m'oblige à me remettre en cause, même si cela me déplaît parce que je dois
admettre que j'étais moins bon que ce que j'aurais voulu. En fait, je dois même
adopter une attitude de vigilance vis-à-vis de mes erreurs ou insuffisances, pour
reconnaître très vite une différence entre ce que je croyais et la réalité, pour
l'admettre et trouver comment m'améliorer.
Agir en personne raisonnable et responsable comprend toujours une résistance à la
subjectivité, par détection puis rejet de ses idées préconçues et illusions.
358
Conscience, objectivité et vérité
La conscience est individuelle, mais la connaissance qui peut en résulter n'est pas
nécessairement subjective. Elle peut être partagée par communication avec des
tiers : un texte que j'écris peut être lu par d'autres. Si tous ceux qui ont
communication d'une connaissance l'examinent et qu'aucun ne la réfute, cette
connaissance devient objective ; ils sont alors d'accord avec les faits ou les opinions
exprimés (Voir [220] et la définition d'une théorie scientifique objective).
L'objectivité est indispensable à la vérité, qui est (pour le moment, nous reviendrons
sur ce point) l'accord d'un énoncé avec les faits ; si une affirmation n'est vraie que
pour moi et fausse pour les autres, il y a un risque de non-objectivité et d'erreur. Les
sciences existent et produisent des vérités universellement acceptées ; il y a donc
bien des méthodes et des exigences susceptibles de produire des discours qualifiés
de véridiques parce qu'ils recueillent un large consensus (le consensus et l'absence
de preuve d'erreur constituent la base du rationalisme critique, présenté plus bas).
La subjectivité a pourtant un intérêt, celui de filtrer l'information qu'une personne
prend en compte, lui évitant de s'encombrer de connaissances sans intérêt. Ce
filtrage est un jugement de valeur de la connaissance, dans son rapport à celui qui
juge. Mon jugement est basé sur mes connaissances, mon expérience, mon
raisonnement, mes illusions et surtout mes émotions, mais c'est ma seule manière
de juger de la vérité.
3.6.5.2.2
Conscience et action de l'esprit sur la matière
Spiritualistes, de nombreuses personnes pensent que l'esprit humain, avec sa
conscience, peut commander aux muscles - donc agir sur la matière. Elles y voient la
preuve d'une transcendance, de la possibilité que l'esprit immatériel agisse sur la
matière et la domine, bien que cette opinion viole le principe d'homogénéité.
Matérialiste, je ne les suivrai pas. Je considère que la conscience n'est que notre
perception du fonctionnement physique du cerveau, d'où elle commande au corps
par des mécanismes physiologiques passant par le système nerveux et connus de
mieux en mieux. Tout être vivant : animal, plante, champignon, etc. a une conscience
d'un niveau au moins suffisant pour réagir à son environnement et agir sur lui à sa
manière, la conscience spontanée ; l'homme a en plus une conscience réfléchie et
une conscience morale.
L'action du psychisme humain sur le corps est tout à fait analogue à celle du logiciel
sur le matériel d'un ordinateur, et pas plus étonnante, merveilleuse ou transcendante
que lui ; cette action peut même de plus en plus être modélisée par du logiciel.
Exemples :

Un détecteur de mouvements oculaires peut aider un pilote d'avion à désigner
une cible ou un dispositif sur lequel il veut agir, en contournant le contrôle de
certains muscles par son cerveau. Le même détecteur est utilisé par des
personnes paralysées pour agir sur des dispositifs qui parlent à leur place,
manipulent un ordinateur, ou contrôlent leur fauteuil électrique.

Un dispositif d'aide aux malentendants (prothèse auditive) corrige l'interprétation
du son par le cerveau – auquel elle parviendrait déformée ou à un niveau
acoustique trop faible – et génère un son adapté à l'oreille malade.
359
3.6.5.2.3
Conscience et pensée non algorithmique
Je ne sais pas séparer chez l'homme conscience (réfléchie) et intelligence : chacune
suppose l'autre et ne peut exister sans elle. Nous verrons ci-dessous que le
fonctionnement de l'esprit humain ne peut se ramener aux seuls mécanismes
physiques, biologiques ou génétiques dont il résulterait : sa description suppose des
informations complémentaires, qu'on peut représenter par un modèle logiciel à
couches.
Voici un ensemble de fonctions psychiques non algorithmiques, c'est-à-dire dont
un esprit humain intelligent est capable alors qu'un ordinateur ne l'est pas du tout ou
l'est beaucoup moins bien.
Résolution de problèmes
L'ordinateur exécute des algorithmes, mais seul l'homme est capable de les écrire,
c'est-à-dire de trouver la méthode permettant de résoudre un problème, méthode
dont le calcul n'est qu'un des moyens. Les travaux de Gödel, Church, Turing, etc. ont
montré qu'il n'existe pas d'algorithme général permettant de résoudre tous les
problèmes, même déjà formulés en termes précis dans un langage formel à la portée
d'un ordinateur. Seul l'homme peut se construire une représentation mentale d'un
problème (c'est-à-dire le poser), trouver les étapes de sa résolution, et enfin mettre
sous forme calculable celles qui relèvent d'une décision déductive ou du calcul
mathématique.
Un ordinateur peut quand même démontrer des théorèmes lorsqu'il lui suffit
d'essayer toutes les combinaisons de déductions logiques possibles formant des
suites de moins de N étapes, où N est un nombre entier donné.
Jugements de valeur
L'ordinateur n'est capable d'évaluer la qualité ou la valeur d'un résultat que dans la
mesure où cette évaluation a été programmée par un homme, et que le programme
a été lancé avec les données nécessaires.
L'homme, au contraire, évalue automatiquement toutes les situations dont il a
connaissance et toutes les pensées qui lui traversent l'esprit :

Evaluation de véracité, c'est-à-dire d'adéquation d'une représentation avec la
réalité. Cette évaluation peut même être nuancée ou assortie d'un doute, la
vérité pouvant (pour un homme, pas dans l'absolu) être partielle ou approchée.
On a démontré que, même dans le cadre d'une axiomatique précise [67] :
 Il n'existe pas de méthode générale de preuve d'une affirmation ;
 Il existe des propositions indécidables (qu'on peut écrire, mais dont la
véracité ou la fausseté ne peut être prouvée logiquement [6]).
Un ordinateur ne peut donc pas évaluer la qualité et les implications de ses
résultats sans logiciel ad hoc fourni par l'homme ; il ne peut même pas évaluer la
cohérence et la pertinence des données qu'il reçoit sans les règles
algorithmiques correspondantes, elles aussi fournies par l'homme. Ce grave
problème a pour origine le caractère arbitraire, postulé par l'homme, des
axiomes d'une axiomatique, situation nécessaire à jamais irrémédiable.
360

Evaluation du résultat d'un calcul, d'un raisonnement, d'une action en fonction du
but prédéfini, avec là aussi possibilité de nuancer l'appréciation.
Il est remarquable que de nombreux scientifiques considèrent qu'une théorie ou
une formule a plus de chances d'être vraie si elle est élégante [143]. L'élégance
scientifique est donc pour eux un critère de vraisemblance pris en compte dans
leur évaluation. C'est une qualité esthétique exprimant par exemple de la
concision, de la simplicité, de la symétrie ou de la généralité. Il est clair qu'un
homme peut formuler une opinion sur l'élégance, certes personnelle et
subjective, alors qu'un ordinateur…
Il faut cependant reconnaître que certaines démonstrations sont correctes bien
qu'étant tout sauf concises et simples. Exemple : la démonstration du théorème
de Fermat par Wiles représente 109 pages difficiles [144].
Bien que, comme tout le monde, je préfère une démonstration simple et concise
à une démonstration longue et compliquée, je pense que l'élégance et
l'esthétique sont des appréciations subjectives sans plus de valeur scientifique
que le principe anthropique auquel certains croient pour expliquer l'Univers.

Prédiction des évolutions possibles d'une situation, avec évaluation de la
probabilité de chacune et de ses conséquences.
Ces prédictions sont basées sur l'aptitude de l'homme à reconnaître des
modèles mentaux à partir de concepts dont il dispose :
 Reconnaissance d'images (photo d'une personne, etc.), que les ordinateurs
commencent à savoir bien faire ;
 Reconnaissance d'une attitude (par exemple hostile ou amicale) à partir de
perceptions diverses ; les ordinateurs commencent à disposer de logiciels
de stratégie permettant d'évaluer une situation (par exemple militaire ou
économique) à partir de paramètres donnés, en utilisant des algorithmes
d'évaluation programmés par l'homme ; certains logiciels prétendent aussi
prévoir l'évolution d'un cours de bourse ou calculer le risque qu'il y a à
détenir un titre, mais ils se trompent – et souvent gravement [301-a].
 Reconnaissance d'une méthode de pensée, de représentation, de résolution
d'un problème, etc., possibilités hors de portée d'un ordinateur.
Après évaluation, l'homme peut reconnaître ses erreurs ou insuffisances et se
corriger ; un ordinateur ne peut reconnaître que des situations pour lesquelles un
homme lui a fourni le programme de reconnaissance ; il ne peut se
reprogrammer qu'avec une logique d'autoprogrammation fournie par un homme.

Jugement avec prise de risque. La plupart de nos décisions doivent être prises
avec des informations insuffisantes ou incertaines. L'homme est conscient des
risques, s'efforce de les évaluer et de décider au mieux, souvent après
concertation avec d'autres hommes. L'ordinateur ne sait pas évaluer ses
informations dans des situations non préprogrammées et ne sait pas avec qui et
comment se concerter.

Autoapprentissage progressif. Un enfant ou un apprenti apprend peu à peu, en
accumulant des faits mémorisés et en construisant des méthodes de pensée ; il
évalue au fur et à mesure ce qu'il voit, qu'il sait, qu'il fait. Il profite aussi des
connaissances et de la culture accumulées depuis des générations par la
société où il vit.
361

Adaptabilité de l'être humain. Nous avons déjà vu qu'un être humain s'adapte
peu à peu : ses organes s'adaptent, ses mécanismes physiologiques s'adaptent
et l'expression de ses gènes s'adapte progressivement à partir de sa naissance.
En outre, les hommes se transmettent les connaissances, chacun progressant
avec l'aide des autres, et l'évolution des gènes et de leur expression améliorent
peu à peu l'adaptation de l'homme à son mode de vie.

Génération continue dans la conscience de besoins à satisfaire et proposition
d'actions pour y parvenir, sujet déjà abordé.
Autres aspects de l'intelligence et de la conscience

L'homme est plus ou moins conscient de ses propres émotions, donc des
risques d'évaluation biaisée et de motivations inavouées. Chacun étant plus
perspicace et plus objectif sur un autre que sur soi-même, chaque homme peut
se faire conseiller par des psychologues, des philosophes, des consultants
spécialisés, des amis, etc.

L'homme dispose de méthodes de communication multiples avec ses
semblables : parole et ton employé, texte et images, expression du visage et du
corps… Le nombre et la variété de ces moyens de communication n'ont d'égal
que leur richesse de nuances.

Chaque individu a conscience d'un autre individu en tant qu'homme. Il s'en fait
une représentation qui modélise ses émotions et son comportement prévisible.

L'homme adopte des attitudes et des comportements de tromperie, de ruse,
d'amitié, d'aide, d'amour, etc. Un ordinateur qui joue aux échecs ne peut
appliquer que des stratégies préprogrammées.

L'homme a des intuitions inexplicables et soudaines [66], [141], qui lui apportent
des hypothèses ou des certitudes n'ayant qu'un rapport lointain avec des faits
avérés et des raisonnements logiques. Ce sont des pensées non déterministes.

Au niveau supérieur de la conscience s'ajoute le niveau sous-jacent du
subconscient. La conscience ne réfléchit qu'à un problème à la fois, mais le
subconscient travaille sur de multiples sujets en parallèle, avant de choisir
parfois d'en communiquer un à la conscience.

La pensée (représentations, déductions, inductions, analogies) procède parfois
par mots, parfois par schémas graphiques, etc. Les hommes ne pensent pas
tous de la même façon ; un homme donné ne pense pas toujours de la même
façon.
Voir aussi :

Le modèle informatique de l'homme ;

Ordinateur et compréhension ;

[168] pour les universaux, qui font partie du déterminisme de la conscience.
362
3.6.5.2.4
Conclusion sur le caractère non-algorithmique et non-déterministe de la
conscience
Il y a des pensées dans la conscience humaine qui ne peuvent provenir d'aucun
algorithme et qu'aucun ordinateur ne pourra jamais simuler, tant pis pour les
personnes qui espèrent que l'intelligence artificielle et les réseaux neuronaux finiront
par rattraper l'homme ; leurs espoirs relèvent de la science-fiction et des robots
humanoïdes du génial Isaac Asimov [140].
A ce point de l'exposé, la discussion sur le caractère algorithmique de la pensée
humaine me paraît close, mais il reste un point qui intéresse les philosophes : la
pensée est-elle déterministe en étant toujours une conséquence de processus
physiologiques, donc matériels ? Et si oui, est-elle prévisible ?
L'imprévisibilité de certains raisonnements
Il y a des pensées imprévisibles parce que leur contexte est non reproductible. Les
processus physiologiques sous-jacents sont bien déterministes, donc à déroulement
et résultat prévisibles, mais leurs circonstances initiales - notamment émotionnelles et leur contexte de déroulement peuvent trop varier d'une fois sur l'autre pour
permettre la prédiction du résultat.
Voici d'autres raisons d'imprédictibilité de certains raisonnements :

Le nombre immense de variables d'une situation où l'homme réfléchit à une
décision consciente : nous avons vu qu'un nombre très grand de processus
déterministes simultanés pouvait produire un comportement global imprévisible
(détails).

Les imperfections de la mémoire, sujette à oublis, erreurs et inventions dans ses
processus permanents de reconstitution des informations stockées.

Les étapes de pensée qui se déroulent dans le subconscient.

Les intuitions [141] et associations d'idées qui naissent dans un cerveau par
suite de proximité physique entre des synapses [268] ou des cliques,
associations qui dépendent de seuils d'excitation chimique ou électrique
susceptibles de varier avec le contexte physiologique et émotif du moment.
Le cerveau humain est notamment capable de formuler (souvent par une
intuition pure et inexplicable) des propositions indécidables (propositions dont il
n'existe pas d'algorithme capable de prouver qu'elles sont justes ou fausses [6],
[66]), mais dont il est persuadé (sans preuve) de connaître la justesse !

Le choix entre un raisonnement et un autre dépend toujours du contexte :
lorsque je suis heureux et optimiste, je raisonne autrement que lorsque je suis
malheureux et découragé. Je peux aussi entretenir des illusions…
Voir aussi, en matière boursière, [301-a].
3.6.5.2.5
La pensée naît-elle du corps avec son cerveau ?
Nous savons déjà que la pensée n'existe pas en dehors de son support cérébral :
voir [51] page 222. Nous n'avons jamais constaté objectivement l'existence d'une
pensée non cérébrale, nous ne sommes pas près d'en créer une avec des
ordinateurs, et nous postulons le matérialisme et refusons le spiritualisme. Mais ce
363
n'est pas parce que le cerveau est une condition nécessaire (exactement : un
support indispensable) à la pensée, qu'il est aussi une condition suffisante et qu'un
corps humain avec un cerveau vivant pense comme nous le faisons.
Puisque la pensée apparaît et se développe automatiquement dans l'embryon
humain, puis chez l'enfant et l'adulte, et qu'il n'existe pas d'être humain qui ne pense
pas, la pensée est une activité aussi inséparable du corps d'un homme vivant que la
respiration, elle est consubstantielle à l'homme ; en outre elle n'existe pas par ellemême, avant l'homme, en vertu du postulat matérialiste.
Les relations entre la conscience et les mécanismes neuronaux sont mal connues ;
on sait malgré tout que le phénomène de conscience est l'interprétation par les
mécanismes neuronaux de l'homme du fonctionnement de ces mêmes mécanismes
[332]. Par exemple nous ne savons pas expliquer (ou seulement schématiquement)
par des mécanismes chimiques et électriques intervenant dans les liaisons
neuronales :

Le contenu de la conscience (ce dont une personne a conscience) ;

L'apparition et le fonctionnement de la conscience de soi ;

Le passage de la non-conscience d'un événement à sa prise de conscience et
inversement ;

Le fonctionnement du subconscient et du seuil qui le sépare de la conscience.
Nous ne savons pas s'il y a, pour un contenu de conscience donné, un nombre
minimum de neurones activés ou une intensité minimum d'activation, bien que nous
sachions de plus en plus pour certains phénomènes comme la vision ou la douleur
quelles régions du cerveau sont activées [216]. Nous avons des raisons de penser
que la connaissance qui nous manque le plus est celle de la « hiérarchie logicielle »
intermédiaire entre les mécanismes neuronaux et la conscience. Voyons pourquoi.
3.6.5.3
Le modèle informatique de l'homme
La conclusion sur l'inséparabilité de l'homme physique et de sa pensée est
cohérente avec un modèle informatique de l'homme, dont la conscience est un effet
du logiciel qui gouverne les processus non automatiques de la vie ; la pensée est la
perception par notre cerveau du fonctionnement de ce logiciel.
3.6.5.3.1
La pensée en tant que processus d'interprétation
Comme expliqué à propos du principe d'homogénéité, la pensée est la perception
par le cerveau de son propre fonctionnement lorsqu'il interprète ses connexions de
neurones. C'est cette interprétation qui transforme un état matériel de neurones en
un autre état perçu comme abstraction. Elle constitue la seule mise en relation entre
concepts de genres différents qui ne viole pas le principe d'homogénéité.
Le cerveau fonctionne comme un ordinateur, dont :

Le matériel est son ensemble de neurones, avec leurs possibilités
d'interconnexion, de transmission, de mémorisation et de raisonnement.

Le logiciel est l'ensemble des règles de fonctionnement du cerveau lorsqu'il
manipule des abstractions qu'il a créées sous forme d'états neuronaux.
364
Le cerveau-ordinateur interprète des états de ses neurones et des informations
reçues des sens pour en tirer des états-conclusions, par raisonnement conscient ou
non. Les règles de cette interprétation forment un logiciel axiomatique : axiomes
d'état des neurones et règles de combinaison d'états initiaux en états finaux.
L'interprétation est basée sur ces axiomes et règles et ne peut produire que des états
neuronaux qui en résultent : nous ne pouvons concevoir, imaginer, mémoriser ou
utiliser pour raisonner que des objets que ces règles-là peuvent déduire de nos
axiomes, nous l'avons déjà noté.
La conscience est un ensemble d'interprétations, et rien que cela. Elle produit des
états de neurones que nous considérons comme ayant une signification : de ce que
je sais et vois, je déduis que j'existe et les propriétés d'objets dont mon cerveau a
construit des modèles (nécessairement réducteurs) - et seulement de tels objets.
Mon modèle informatique de la pensée "cerveau-ordinateur" ci-dessus est
conforme aux résultats expérimentaux [332].
En reliant des abstractions l'esprit humain peut créer n'importe quelle relation, même
fantaisiste ou absurde ; il suffit que certains groupes de neurones (des « cliques »)
créent, modifient ou suppriment diverses connexions entre neurones.
Le processus d'interprétation de notre pensée n'est pas déterministe, d'abord parce
qu'il comprend des parties subconscientes, ensuite parce qu'il subit l'influence de
conditions non conscientes (donc non maîtrisables) venues de nos perceptions, de
notre état de santé du moment et des émotions qui apparaissent spontanément.
3.6.5.3.2
Cognition computationnelle et cognition dynamique
On appelle cognition l'ensemble des processus d'acquisition, de gestion et
d'utilisation des connaissances ; c'est ainsi que la psychologie désigne l'ensemble
des fonctions de traitement conscient de données de la pensée : perception,
stockage et recherche d'informations dans la mémoire, abstraction et manipulation
de symboles, intelligence. Un processus peut être déclenché consciemment
(délibérément) ou automatiquement (indépendamment de la volonté).
(Cet ensemble est le complément de l'ensemble des fonctions inconscientes :
émotions, affects, pulsions et motivations.)
La cognition peut se produire de deux manières qui s'excluent mutuellement :

La cognition computationnelle, où la pensée se déroule comme un programme
dans un ordinateur : c'est une suite ordonnée d'interprétations où chacune
résulte de la précédente.

La cognition dynamique, où l'enchaînement des interprétations résulte de
propriétés auto-organisatrices de l'esprit. Chaque sous-système cognitif agit
alors sur un certain nombre d'autres. Plusieurs sous-systèmes travaillent en
parallèle. Certains peuvent en interrompre un autre et lui fournir des données
nouvelles générant des enchaînements nouveaux. Les "données" qu'un soussystème interprète peuvent provenir de la mémoire (de travail ou permanente),
et de sensations physiques. La logique d'interprétation dépend à la fois du code
génétique de l'organisme et du contexte du moment.
365
3.6.5.3.3
Modèle logiciel à couches du psychisme
Par analogie avec un ordinateur, je propose les niveaux suivants du logiciel humain,
du plus élevé au moins élevé :

Logiciel (en anglais : software) :
 La conscience ;
 Le subconscient ;
 Les processus automatiques du système nerveux (cervelet, moelle épinière,
etc.) ;

Microcode (en anglais : firmware) : le code génétique et son interprétation par la
machinerie cellulaire : duplication et expression des gènes, fabrication et
utilisation des protéines, etc. ;
Le "matériel" sous-jacent, nécessaire à l'existence et au fonctionnement de ce
logiciel, est l'ensemble des cellules du cerveau, avec leurs processus biologiques
basés sur des protéines générées par interprétation du génome.
Ce modèle logiciel ne peut se ramener à un modèle exclusivement physique, basé
sur la biologie et/ou la génétique. C'est une description complémentaire, basée sur
de l'information et des relations entre informations, ainsi que des générations,
comparaisons et interprétations d'informations par notre esprit. Tenter de déduire des
pensées dans un esprit humain de mécanismes exclusivement neuronaux est
impossible, aussi impossible que de déduire l'existence physique de Dieu d'une
description qu'on en a fait.
Ce n'est pas parce que la pensée est impossible sans un cerveau et ses
mécanismes physiques qu'elle peut se ramener à eux : ils en sont une condition
nécessaire, mais pas suffisante pour en décrire le déroulement.
3.6.5.3.4
Transcendance avec et sans caractère surnaturel
La nécessité ci-dessus d'une description complémentaire des processus de l'esprit,
en plus de sa description physique basée sur le génome et les neurones, implique la
transcendance d'une partie des mécanismes de la pensée, leur caractère non
réductible à son modèle physique. Ce n'est pas plus choquant que la nécessité du
concept de charge électrique, en plus de celui de masse, pour décrire les
mouvements d'un électron dans un champ électrique.
Cette transcendance est l'œuvre de notre entendement, lorsqu'il se donne les
concepts nécessaires à la description des processus psychiques, concepts qu'on ne
peut réduire aux seuls concepts physiologiques.
Il y a une autre transcendance, celle qui fait intervenir le surnaturel. On la trouve par
exemple dans l'Idée de Platon, la description par une religion monothéiste du
concept de Dieu ou les croyances magiques ; c'est une caractéristique de ce qui est
extérieur et « supérieur » à notre Univers.
Dans ce texte, c'est le premier sens ci-dessus qui décrit l'irréductibilité de la pensée à
des processus physiologiques. Croire en la nécessité d'une telle transcendance est
compatible avec la vue moderne du matérialisme, vue qui dépasse celle qui tente
sans succès de ramener la pensée aux seuls mécanismes physiques.
366
Tentatives de simulation informatique des processus psychiques et inexistence d'un
ordinateur qui pense et apprécie comme un homme : voir [279].
Voyons à présent quelques différences importantes entre l'homme et l'ordinateur :
adaptabilité, évaluation permanente de la valeur et des implications de chaque
information, intuitions et processus au résultat imprévisible, raisonnements
approximatifs risqués, émotions, etc.
3.6.5.3.5
Le fonctionnement de la conscience n'est pas souvent déterministe
Nous avons à présent les éléments pour répondre « En général non » à la question
"La conscience fonctionne-t-elle de manière déterministe ?" :

La conscience ne respecte pas toujours les exigences de causalité et de
reproductibilité de la définition du déterminisme scientifique traditionnel, dans la
mesure où :
 une partie d'une pensée, notamment son déclenchement et les émotions qui
l'accompagnent et l'influencent, est dans le subconscient ;
 des intuitions peuvent apparaître spontanément et paraître prégnantes
[141] ;
 des jugements de valeur peuvent être émis et des décisions peuvent être
prises malgré des incertitudes et des informations insuffisantes, sur la base
d'une inspiration ou d'une impression, et sans garantie de reproductibilité ;
 les circonstances entourant une prise de décision varient constamment du
fait du nombre de variables dont la valeur peut changer.

La conscience est capable d'apprendre et de s'adapter, mais cela se produit
dans des contextes qui ne respectent pas souvent l'exigence de reproductibilité.
Exemple : l'apprentissage progressif d'un enfant, par essais et erreurs.

La conscience fonctionne souvent de manière non algorithmique.
Lorsque la conscience fonctionne de manière non déterministe, l'homme est
nécessairement imprévisible. Nous avons vu aussi que même lorsqu'un phénomène
complexe ne comprend que des processus déterministes, son résultat est en général
imprévisible.
3.6.5.3.6
Autres raisonnements humains inaccessibles à un ordinateur
Certains processus mentaux caractéristiques d'un être humain sont inaccessibles
aux ordinateurs actuels. Ils utilisent des facultés humaines comme :

L'aptitude à reconnaître des formes ou des lettres même lorsqu'elles sont
déformées, qu'elles ont des parties absentes ou surabondantes ;

L'aptitude à trouver des points communs sémantiques entre plusieurs dessins,
photos ou mots ; etc.
Ils sont aujourd'hui très utilisés dans des applications interactives Internet, pour
empêcher des ordinateurs de se faire passer pour des humains. Voir la page du
projet CAPTCHA [193].
367
3.6.5.3.7
Le besoin de tromper ses adversaires. Les deux types d'incertitude
Sources : [54] et [57].
Dans la lutte pour survivre en présence d'ennemis, un comportement exclusivement
prévisible est un désavantage. Si son ennemi peut prévoir ce qu'un individu va faire,
il va adapter sa stratégie de manière à répondre plus efficacement et plus vite, pour
l'emporter. Si le renard malin peut prévoir la direction du prochain bond du lièvre qu'il
poursuit, il a plus de chances de l'attraper. Un lièvre dont la fuite suit une trajectoire
prévisible a donc moins de chances de survivre qu'un lièvre dont la trajectoire est
imprévisible.
(C'est pourquoi on dit que le lièvre courant en zigzag, le chasseur doit tirer dans
le zig quand le lièvre est dans le zag !)
Un comportement prévisible est donc parfois un handicap. Si un policier sait où le
délinquant qu'il poursuit va aller, il peut prévenir des collègues qui l'y attendront pour
le cueillir.
Dans une transaction commerciale entre un acheteur et un vendeur, celui qui est
prévisible pour l'autre ou qui tient toujours parole est désavantagé, celui qui ment ou
dissimule le mieux est avantagé. Un homme qui ne ment jamais fera donc un piètre
vendeur et un piètre acheteur, car son partenaire commercial n'aura pas d'incertitude
sur ce qu'il dit, alors que celui qui trompe l'autre crée chez son partenaire une
incertitude dont il peut espérer profiter. Ce phénomène est important à l'échelle
individuelle comme à l'échelle macroéconomique, où des travaux sur « l'asymétrie
d'information » ont valu à leur auteur un prix Nobel [58].
En fait, l'imprévisibilité peut créer un manque de confiance tel que la transaction n'a
pas lieu. Exemple : à l'été 2007 est survenue une crise internationale de liquidités
due à l'exposition de certains fonds d'investissements aux prêts immobiliers à des
emprunteurs américains peu solvables (prêts "subprime"). Comme toutes les
banques et la plupart des investisseurs achètent des parts dans tous les fonds
prometteurs à un instant donné, tous ces acteurs risquent de perdre de l'argent
lorsqu'un fonds a beaucoup d'emprunteurs qui font défaut. Lorsque le nombre de
défauts de remboursement s'est mis à exploser du fait de la hausse des taux
d'intérêt, entraînant des défauts de paiement d'institutions financières, plus aucune
banque, aucun investisseur ne voulait acheter de titres d'aucune institution, faute de
savoir si celle-ci était ou non fortement exposée aux prêts à risque : le manque
d'informations bloquait les transactions. Le risque d'effondrement du système
bancaire international (par manque de liquidités provenant de banques ou
d'acheteurs de titres) était si grand que les banques centrales ont injecté des
centaines de milliards de dollars et d'euros dans le système bancaire (sous forme de
prêts, pas de dons) pour rétablir la confiance !
Inversement, une bonne réputation et une habitude de confiance peuvent favoriser
des transactions bénéfiques pour les deux parties. La malhonnêteté n'est donc pas
systématiquement la meilleure stratégie face à un partenaire qui réfléchit.
L'incertitude sur l'évolution d'un phénomène a deux composantes.

L'incertitude réductible, provenant d'un manque de connaissances sur le
phénomène. La seule manière de la réduire est l'acquisition de connaissances,
368
par modélisation du phénomène qui permet d'en prévoir le déroulement (par
raisonnement ou calcul) ou par accumulation d'expérience (comme un réseau
neuronal). C'est pourquoi, par exemple, certains prédateurs comme les félins
apprennent à leur progéniture à chasser. Et c'est pourquoi les enfants vont à
l'école.

L'incertitude irréductible, résultant d'un comportement au résultat imprévisible.
Un tel comportement est possible chez un animal ou un homme dans deux cas :
 Si son cerveau possède un mécanisme de pensée non algorithmique. Nous
avons vu qu'un tel mécanisme à résultat imprévisible peut exister même
lorsque le niveau sous-jacent est parfaitement déterministe.
 Si son cerveau a utilisé des règles de raisonnement qui ne peuvent résulter
d'aucune logique ou algorithme calculable, tout en donnant des résultats
corrects (voir [6] et [66]).
Un éventuel mécanisme défensif à effet imprévisible d'un animal devrait être
inconscient, automatique. S'il était conscient, si l'animal pouvait le déclencher,
l'inhiber, l'interrompre ou en contrôler l'ampleur à volonté, il serait moins
imprévisible, donc moins efficace.
L'intérêt de l'existence d'un tel mécanisme pour la survie d'un animal en
présence d'ennemis est certain. Certains prédateurs possèdent un mécanisme
de détection de situations d'incertitude, mécanisme capable de distinguer entre
incertitude réductible (susceptible d'être réduite par apprentissage), et incertitude
irréductible qui ne mérite pas l'effort et le temps nécessaires pour apprendre.
L'intérêt de mécanismes d'imprévisibilité et de détection d'imprévisibilité irréductible
est donc certain pour tous les animaux, notamment pour l'homme. Les auteurs de
[54], [57], [75] et [76] affirment leur existence, établie par leurs travaux. On peut aussi
raisonner par l'absurde : une espèce animale dépourvue de ces mécanismes n'aurait
sans doute pas survécu au processus darwinien de sélection naturelle ; des hommes
trop honnêtes et prévisibles n'auraient pas pu assurer leur descendance.
3.6.5.3.8
Recherches sur les stratégies de bluff et décision en ambiance
d'incertitude
De nombreux scientifiques travaillent à mieux comprendre la manière de raisonner
de l'homme. C'est ainsi qu'une équipe canadienne de chercheurs en intelligence
artificielle étudie les stratégies de tromperie pour gagner au poker depuis 1992 [129].
Ils ont choisi de réaliser des programmes de jeu de poker parce que :

Ce jeu a des règles et des objectifs clairs.

Les stratégies permettant de gagner au poker peuvent être appliquées à des
situations du monde réel où les règles sont floues, car jouer au poker exige de
prendre en compte trois types d'incertitude :
 Les donnes de cartes aléatoires ;
 L'information imparfaite (le bluff) ;
 Le manque d'information (on n'a pas vu toutes les cartes de l'autre joueur
lorsqu'on prend une décision).
369
En 2007, leur programme Polaris a battu parfois des champions de poker humains,
mais ceux-ci l'ont battu un peu plus souvent. L'ordinateur essaie de deviner les ruses
de son adversaire et y parvient de plus en plus, au fur et à mesure que les
recherches avancent et que davantage de "personnalités différentes" de joueurs sont
prises en compte par le logiciel. Si les chercheurs parviennent à réaliser des
algorithmes efficaces au poker, ils ont des chances de pouvoir en profiter pour des
négociations commerciales.
3.6.5.4
Ne pas confondre comportements imprévisibles et libre arbitre
Nous aborderons plus bas la nature du libre arbitre de l'homme compte tenu du
déterminisme. Mais d'ores et déjà il faut remarquer qu'il n'y a pas de rapport entre
l'éventuelle imprévisibilité irréductible d'une personne et sa volonté ou son refus de
faire quelque chose, parce que cette imprévisibilité (si elle existe) est inconsciente.
L'imprévisibilité d'un individu peut donner, à d'autres comme à lui-même, l'impression
qu'il a son libre arbitre, mais nous verrons que cette impression est trompeuse.
L'imprévisibilité vient parfois des lois physiques, nous l'avons vu plus haut, et parfois
des mécanismes du psychisme humain. Mais elle vient aussi de l'ignorance de
l'homme, de son incompréhension de ce qui se passe. C'est ce que Spinoza avait
bien vu lorsqu'il écrivait dans "l'Ethique" [97] (partie II, proposition XXXV) :
"Les hommes se trompent en ce point qu’ils pensent être libres. Or, en quoi
consiste une telle opinion ? en cela seulement qu’ils ont conscience de leurs
actions et ignorent les causes qui les déterminent. L’idée que les hommes se
font de leur liberté vient donc de ce qu’ils ne connaissent point la cause de leurs
actions, car dire qu’elles dépendent de la volonté, ce sont là des mots auxquels
on n’attache aucune idée. Quelle est en effet la nature de la volonté, et comment
meut-elle le corps, c’est ce que tout le monde ignore…."
3.6.5.5
Ne pas confondre aptitude à transgresser les règles et libre arbitre
Un soldat prisonnier devient un héros lorsqu'il choisit de mourir sous la torture plutôt
que de « parler ». Certains philosophes ont vu dans cette aptitude de l'homme une
preuve de sa possibilité d'échapper au déterminisme, donc de sa liberté ; ils
considèrent que le libre arbitre de l'homme est caractérisé par son aptitude à choisir
contre son intérêt au nom de valeurs supérieures, même si celles-ci sont purement
morales ou intellectuelles.
Nous reviendrons plus bas sur le libre arbitre et la liberté de l'homme, mais je
voudrais proposer ici une interprétation matérialiste de l'aptitude humaine à
transgresser des règles. Tant qu'un homme est conscient, tant que sa souffrance
physique, par exemple, ne l'empêche pas de penser et n'empêche pas sa pensée de
maîtriser ses actes, il est soumis à la dictature des valeurs présentes dans son
esprit. Or celles-ci sont ordonnées, certaines prenant le pas sur d'autres. Dans une
situation donnée, tant que l'homme a la capacité de réfléchir, il agit en fonction de
celles de ses valeurs qui s'appliquent et sont les plus influentes, parce que les règles
de comportement issues de ses gènes le lui imposent. C'est pourquoi les méthodes
de torture les plus raffinées essaient de réduire l'aptitude de l'homme torturé à
penser, par exemple en le privant de sommeil.
Je crois fermement que l'homme en mesure de penser n'est jamais libre de
transgresser toutes ses valeurs, qu'il y en a au moins une à laquelle il obéira parce
370
qu'aucune autre n'est plus importante à ses yeux à ce moment-là. Et tant qu'il lui
reste au moins une valeur dominante, l'homme en est esclave.
Noter que la raison n'est pas une valeur, contrairement à ce que croyait Descartes.
Ce n'est qu'un outil utilisé par l'esprit pour trouver quoi faire pour satisfaire le mieux
la valeur dominante du moment.
Nous verrons plus bas que l'homme peut faire ce qu'il veut, mais il ne peut pas
vouloir ce qu'il veut [224]. N'oublions pas que l'homme ne maîtrise pas son
subconscient et que celui-ci intervient avec ses propres automatismes et ses propres
valeurs instinctives, cachées.
Il faut ajouter, ici, qu'à long terme toute valeur est susceptible d'être créée, rejetée,
modifiée, ravalée à un rang inférieur ou promue à un rang supérieur. Une telle
évolution peut provenir des expériences vécues par l'homme comme de ses
réflexions. Une transgression de valeur dominante peut, après une telle évolution,
s'expliquer par le respect d'une valeur désormais supérieure. Mais je ne vois toujours
pas de besoin de postuler que l'homme jouit d'un libre arbitre, sachant que ce libre
arbitre est illusoire.
3.6.6
Difficulté d'expliquer un comportement macroscopique à partir de
phénomènes au niveau atomique
Les objections des spiritualistes au modèle matérialiste de la vie qui réduit celle-ci
aux seuls mécanismes biophysiques s'expliquent aussi par une erreur de méthode :
ils tentent de comprendre des structures, mécanismes et fonctions de haut niveau
directement à partir de notions de bas niveau, c'est-à-dire de niveau moléculaire,
sans passer par des niveaux intermédiaires. Nous allons voir des raisons pour
lesquelles c'est, en général, impossible pour un être humain.
La difficulté de passer d'une représentation ou une modélisation de certains
phénomènes à l'échelle moléculaire à une représentation ou une modélisation à
l'échelle macroscopique provient d'une complexité qui se manifeste à la fois :

Par le fait que l'action des gènes, basée sur des mécanismes de biologie
moléculaire déterministes, porte sur des milliers de réactions chimiques qu'elle
coordonne ; sa complexité la rend donc en général imprévisible [51].

Par l'impossibilité de passer directement des mécanismes cellulaires des êtres
vivants à leurs mécanismes psychiques, même en tenant compte du logiciel
génétique ([51] page 14). Nous devons prendre en compte le modèle
informatique de l'homme.

Par le nombre immense d'interactions possibles entre les variables
physiologiques et psychiques intervenant dans la pensée décisionnelle humaine
en même temps que les variables de son environnement (santé, activité, etc.).
Conclusion sur le déterminisme lors d'un changement d'échelle
Si l'on veut prendre des décisions - ou simplement comprendre les phénomènes - à
l'échelle macroscopique à partir d'une compréhension des situations et des
phénomènes à l'échelle moléculaire ou cellulaire, on se heurte le plus souvent à des
difficultés insurmontables même pour des physiciens et des biologistes.
371
Ce n'est pas le déterminisme qui est en cause en tant que principe, surtout si on en a
étendu la définition comme suggéré dans ce texte, c'est la complexité intrinsèque
des interactions entre lois de l'Univers et du nombre de leurs variables. Cette
complexité, déjà formidable pour les lois physiques et chimiques, est complètement
inextricable pour les phénomènes irréversibles à la base de l'auto-adaptation et de
l'évolution du vivant, et encore plus pour les lois du psychisme ou de la société ;
notre esprit ne peut se la représenter à l'aide des seules connaissances à l'échelle
microscopique. Toute compréhension ou décision à l'échelle humaine passe donc
nécessairement par une hiérarchie de niveaux schématisant et simplifiant
progressivement les représentations ; en pratique, cette hiérarchie comprend des
niveaux "logiciels".
Il est souvent préférable d'étudier et de modéliser le comportement humain en
étudiant son psychisme comme le font les psychologues, d'une manière holiste.
Plus généralement, un même ensemble de lois physiques, adaptées à une échelle
particulière (Relativité à l'échelle cosmologique, lois macroscopiques à l'échelle
humaine, Mécanique quantique à l'échelle atomique, etc.) ne permet pas, en
pratique, de modéliser les comportements à une autre échelle ; on ne peut donc pas
faire une suite de déductions ou prédictions de comportement en franchissant une
limite d'échelle : nous l'avons vu à propos des Principes de correspondance et de
complémentarité. Voir aussi Ensemble de définition d'une loi déterministe.
3.6.7
Déterminisme lors d'un changement de niveau ou d'échelle
Lorsqu'on passe d'un niveau N à un niveau plus élevé ou moins élevé, que devient
un comportement déterministe ? Hélas il n'y a pas de loi générale, mais on peut
distinguer deux cas selon le caractère naturel de la transition entre les niveaux ou le
caractère artificiel avec intervention humaine. Voyons des exemples.
3.6.7.1
Phénomènes naturels
Nous avons déjà vu qu'à l'échelle atomique la Mécanique quantique introduisait la
possibilité de conséquences multiples d'une cause donnée, comme les multiples
résultats possibles pour une mesure, ou les multiples états quantiques stables
correspondant à un champ de potentiel donné ; nous savons aussi que ces résultats
multiples peuvent exister simultanément, en superposition ; nous savons enfin que le
passage au niveau macroscopique peut faire apparaître comme continu un
comportement déterministe discontinu du niveau atomique.
Exemple : une quantité d'électricité, nécessairement discontinue car multiple
entier de la charge (élémentaire) de l'électron (e = 1.6 .10-19 coulomb) au niveau
atomique, paraît être une grandeur continue au niveau macroscopique, tant la
charge élémentaire e est petite ; le déterminisme reliant cause et effet n'est pas
tout à fait le même.
Nous avons également vu que l'imprécision qui rend imprédictible et irréversible la
trajectoire d'une molécule dans un liquide devient négligeable au niveau
macroscopique où on ne s'occupe plus des molécules individuelles, mais seulement
des propriétés statistiques du liquide dans son ensemble, c'est-à-dire des moyennes
en un point donné de la température, de la pression, etc. En sens inverse,
connaissant les lois de comportement macroscopiques, on n'a même pas pu deviner
372
pendant des siècles qu'il existait un niveau moléculaire obéissant à des lois
complètement différentes. Les lois physiques du niveau atomique sont apparues :

En 1900 avec le quantum élémentaire d'action de Planck, h
(h = 6.6261 .10-34 joule.seconde) ;

En 1905 avec l'effet photoélectrique d'Einstein, qui explique pourquoi et
comment la lumière peut avoir à la fois un comportement ondulatoire et un
comportement corpusculaire.
Ces deux découvertes ont valu des Prix Nobel à leurs auteurs, tant elles ont
révolutionné la physique.
3.6.7.2
Phénomènes artificiels
L'économie, qu'on peut considérer comme « la science de l'allocation de ressources
rares et chères » (main-d'œuvre, terre, eau, minerais, capital…) n'a de sens qu'à un
niveau regroupant un certain nombre d'hommes.

Le comportement d'un individu isolé est en général peu prévisible lorsqu'il prend
des décisions à caractère économique : quel produit choisir, combien en
acheter, à quel prix, quand, à qui ; quel métier exercer, où, etc. [301]
A ce niveau-là, le déterminisme est surtout un postulat philosophique
matérialiste : l'homme a un comportement rationnel et égoïste déterminé par ses
mécanismes physiologiques et son environnement présent et historique ; Sartre
pense, en outre, que l'homme a son libre arbitre (voir aussi [81]).Les
spiritualistes, au contraire, pensent que toute action humaine est déterminée par
Dieu ou des forces de l'esprit.

Le comportement économique d'un groupe d'individus apparaît d'autant plus
prévisible qu'ils sont plus nombreux et que la situation est moins exceptionnelle.
 Au niveau d'une entreprise, par exemple, (niveau considéré comme
microéconomique) il existe des lois de production [64], de marketing, etc.,
traduisant un certain déterminisme lorsque leurs hypothèses réductrices
s'appliquent.
 Au niveau d'un pays ou d'un groupe de pays comme la zone euro (niveau
considéré comme macroéconomique), il y a des lois déterministes comme la
« loi de l'offre et de la demande » [167] ou les mécanismes de la
mondialisation, que nous aborderons plus bas.
Entre les niveaux micro et macroéconomique il y a des seuils dont le franchissement
s'accompagne d'effets plus ou moins prévisibles. Ces effets concernent des
phénomènes comme l'équilibre, la croissance, la sensibilité ou l'indifférence,
l'asymétrie d'information, etc.
Nous le verrons, la mondialisation est un phénomène déterministe, mais comme il
est indifférent aux intérêts des individus et à