L’intelligence collective (IC) est devenue
un objet central dans les discours institutionnels, les pratiques
organisationnelles et les recherches en sciences humaines et sociales.
Cette IC intervient dans tous les
recoins de notre vie commune (votes en politique, décisions en entreprise, dans les
collectivités « participatives » et associations diverses etc. Bref,
partout en société. Chaque individu nécessairement singulier (génétique /
environnement / stochastique) apporte ce qu’il est, est influencé, modifie ses
convictions et décisions en fonction des nouveaux déterminants auxquels il est
confronté.
Cette vidéo du Docteur en Ethologie Mehdi Moussaïd montre bien les enjeux de cette IC :
Cette IC qui semble faire bien "mieux" que la plupart des individus pris séparément laisse entière la question de savoir comment on en arrive à l'Amérique de Trump, la Russie de Poutine ou la Chine de de Xi Jinping... pour ne prendre que des exemples de l'actualité sans remonter à Hitler porté par l'IC allemande en 1933. Mais le fond de mon propos n'est pas là.
Ce qui motive cet article est l'inconsistance pour moi des prémisses philosophico-scientifiques compatibilistes de cet excellent chercheur.
Pour Mehdi Moussaïd, chaque cobaye arrive avec son libre arbitre (quelle en est sa définition personnelle ? voir Libre arbitre : KEZAKO ?) tout en montrant dans ses expériences que les avis / décisions changent en fonction des déterminants et manipulations non choisis "librement". La cohérence globale du propos est mise à mal mais Mehdi Moussaïd ne fait ici que conforter ce que disent malheureusement nombre de scientifiques et de philosophes pour lesquels libre arbitre et déterminants font bon ménage (compatibilisme). Dans d'autres propos, il semble montrer que le libre arbitre n'existe pas... Il serait bon dans ce cas de ne pas en parler comme s'il existait !
Rappelons que la notion d'émergence de nouvelles propriétés ne doit rien à la magie d'un libre arbitre ontologique (voir L'émergence de Lenia et Libre arbitre : une propriété émergente compatible avec la science ?). De la même manière, l'impossibilité de connaître toutes les caractéristiques d'une seule molécule de gaz (= les déterminants qui font un "individu non prévisible") n'empêche pas pour autant la prévisibilité d'un grand nombre de molécules. Si vous lancez un dé une fois, le résultat est
imprévisible. Si vous le lancez un milliard de fois, vous êtes certain que la
moyenne sera très proche de 3,5. Pour un gaz, c'est la même chose : les comportements
individuels extrêmes s'annulent.
L'impossibilité de connaître l'unité n'empêche
pas la certitude sur la masse. En fait, c'est précisément parce qu'elles sont
si nombreuses que les erreurs de prédiction individuelles deviennent
négligeables. Ce qui est à rapprocher de la notion de chaos déterministe (voir Du chaos déterministe au hasard quantique : que reste-t-il du libre arbitre ?).
Finalement, nul besoin d'un pseudo libre arbitre ontologique - qui est d'ailleurs incompatible avec les lois déterministes et indéterministes de le la Nature - pour travailler en sciences humaines.
Ceci ne remet pas en cause les résultats forts intéressants de ce chercheur mais montre que la science sans conscience philosophique étayée entretient des idées reçues délétères (voir Le côté obscur du libre arbitre).
La foi et le surnaturel sont-ils synonymes
d'immaturité intellectuelle ?
Après des siècles de croyances diverses protéiformes qui se cannibalisent entre elles, la question de savoir si la croyance religieuse ou l'adhésion au surnaturel
relève d'une forme d'immaturité - sinon d'une méconnaissance des mécanismes du monde - qui est au cœur de la modernité.
Depuis le « désenchantement du monde » décrit par le sociologue Max Weber, une idée s'est ancrée en Occident : à mesure
que la science progresse et illumine les zones d'ombre de notre ignorance, le
besoin de surnaturel devait mécaniquement reculer.
Pourtant, au XXIe siècle, la foi persiste, se transforme et cohabite
parfois avec une haute culture scientifique.
L'idée que la religion est une étape "infantile" du développement
humain repose sur deux piliers majeurs de la pensée des XIXe et XXe siècles. Le
père du positivisme, Auguste Comte, a théorisé dans son Cours de philosophie positive (1830-1842) que
l'humanité traverse trois phases, comparables au développement d'un individu :
L'état théologique (l'enfance)
: l'homme explique les phénomènes naturels par des agents surnaturels
(dieux, esprits, Père Noël…) par manque de connaissances causales.
L'état métaphysique
(l'adolescence) : les divinités sont remplacées par des
concepts abstraits (la Nature, l'Être...).
L'état positif (l'âge adulte)
: l'esprit renonce à chercher le "pourquoi" absolu, sans issue, pour se
concentrer sur le "comment" par l'observation scientifique.
Selon cette vision, croire au surnaturel aujourd'hui serait un anachronisme
cognitif, un refus de passer à l'âge adulte de la raison.
Dans L'Avenir d'une illusion (1927), Sigmund Freud propose une critique psychologique
dévastatrice. Pour lui, la religion est une « névrose obsessionnelle
universelle ». Elle naît de la détresse infantile face à une nature hostile
et à la certitude de la mort. L'adulte, effrayé par la vie, projette
dans le ciel une figure paternelle protectrice (Dieu) pour se rassurer, tout
comme l'enfant se tourne vers son père. La maturité consiste à abandonner cette
béquille psychique pour affronter la réalité crue ("l'éducation à la
réalité").
Cet argument, popularisé par les penseurs athées contemporains comme Richard Dawkins (Pour en finir avec Dieu,
2006), suggère que le surnaturel n'habite que les interstices de notre
ignorance. Le monde de Spinoza, le réel, n'a rien pour plaire.
Aucun principe ne le régit, aucune morale ne le transcende, aucune providence
ne l'ordonne. C'est un monde absurde (Camus n'est pas loin), où le crime paie parfois (Staline est tranquillement mort dans son lit), et où la vertu
n'a pas d'autre récompense qu'elle-même. Autrefois, on attribuait la foudre à
Zeus ; la météorologie l'ayant expliquée, Zeus a disparu. Si la foi n'est
qu'une « explication par défaut », elle est effectivement le signe d'une
méconnaissance du monde.
Si la thèse de l'immaturité est séduisante par sa logique, elle se heurte à
des réalités sociologiques et épistémologiques complexes. Le paléontologue et
biologiste de l'évolution Stephen Jay Gould a
proposé dans Et Dieu dit : « Que Darwin soit ! » (1999) le principe
de NOMA (Non-Overlapping Magisteria ou Magistère Non Superposé).
La Science couvre
le domaine des faits empiriques (de quoi l'univers est fait et comment il
fonctionne).
La Religion couvre
le domaine du sens, des valeurs morales et des buts ultimes.
Selon Gould, qui est agnostique, une personne peut être parfaitement mature
et instruite (domaine 1) tout en ayant la foi (domaine 2), car ces deux
domaines répondent à des questions différentes. L'immaturité serait de
confondre les deux (ex : le créationnisme qui nie les découvertes en géologie,
ou le scientisme qui prétend dicter la morale).
N.B : la plupart des religieux ont une foi absolue dans des textes « sacrés »
et datés en contradiction totale avec les connaissances scientifiques. Des
philosophes des sciences notent ainsi que la religion fait souvent des
affirmations factuelles (création, miracles, origine de l’univers), ce qui
contredit l’idée d’une séparation parfaite entre sciences et religions. Par
ailleurs, l’évolution de la morale humaine (et proto-morale animale) s’explique
scientifiquement dans des termes évolutionnistes afin de garantir au mieux la
survie de l’espèce et de l’individu (coopération versus trahison etc.). Samuli
Helama (2024) rappelle que NOMA est souvent présenté comme un
modèle d’indépendance, mais que cette vision est trop simplificatrice, car la
religion intervient aussi sur des questions de réalité, et non pas seulement de
morale. Gould a lui‑même évolué vers une vision plus souple, parlant d’une
“consilience of equal regard”, reconnaissant que les frontières entre
disciplines sont plus poreuses qu’il ne le disait initialement.
Certains affirment que l'argument de la « méconnaissance du monde » pour
expliquer le surnaturel s'effondre face à la liste des scientifiques de premier
plan qui revendiquent une foi active. Le simple fait qu'ils existent prouverait
que la connaissance du monde physique n'entraîne pas automatiquement
l'athéisme.
Georges Lemaître : prêtre
catholique et physicien, père de la théorie du Big Bang. Il tenait à
séparer strictement sa foi de ses calculs cosmologiques.
Francis Collins : directeur
du projet Génome Humain. Dans De la génétique à Dieu
(2006), il explique comment le décryptage de l'ADN a renforcé son
émerveillement spirituel plutôt que de l'éteindre.
Pour autant, l'identité religieuse - y compris chez les scientifiques - s'estompe
dans de nombreux pays. De 2010 à 2020, la part de la population se déclarant
affiliée à une religion a diminué d'au moins 5 points de pourcentage dans 35
pays, selon une étude récente du Pew Research Center.
Au lieu de voir la foi comme un défaut de connaissance ou d'intelligence,
les recherches actuelles tendent à la voir comme une fonction cognitive
naturelle ou un « choix » (libre ?) existentiel conscient.
Des chercheurs comme Justin Barrett (Born Believers, 2012) suggèrent que le cerveau humain
est biologiquement câblé pour la croyance :
HADD (Dispositif de détection d'agence hyperactive) : du point
de vue évolutif, il est préférable de croire qu'un bruit dans les buissons
est un prédateur potentiel plutôt que le vent. Nous avons une tendance
innée à détecter des intentions et des esprits partout. Cette tranche sortie du toaster est bien évidemment un signe que m'envoie Jésus, non ? A moins que ce ne soit Cyrano de Bergerac...
Nuance sur l'immaturité : si la croyance est un "instinct
cognitif", l'athéisme demande un effort contre-intuitif. Cela ne rend
pas la foi "immature", mais "naturelle". La
maturité résiderait alors dans la capacité à examiner critiquement cet
instinct.
Il semble bien que l'évolution nous ait doté d'un "raisonnement motivé" destiné à nous faire prendre des vessies pour des lanternes comme le montre cette conférence d'un neuroscientifique. Nous restructurons la réalité pour qu'elle "colle" avec notre position initiale...
La remise en cause de nos "causes" antérieures idéologiques / religieuses n'est pas une sinécure. Encore faut-il accepter de lutter contre une désinformation permanente et appliquer certaines mesures de protection...
Pour le philosophe très croyant Søren Kierkegaard, la foi n'est pas une
connaissance imparfaite, mais une décision prise au-delà de la raison. Ce n'est
pas croire faute de preuves, c'est croire malgré l'absence de preuves. Dans
cette optique, la foi demanderait une maturité vertigineuse : accepter
l'incertitude objective (le "silence de Dieu") et choisir d'y engager
sa vie. C'est l'opposé de la superstition rassurante décrite par Freud ; c'est
une prise de risque existentielle (?)
Le philosophe contemporain Alvin Plantinga
soutient que la croyance en Dieu peut être "proprement basique"
(comme croire en l'existence d'autrui ou du passé), et ne nécessite pas de
preuves scientifiques pour être rationnelle, tant qu'elle n'est pas contredite par
des faits avérés ("Sensus Divinitatis" ou « sens
du divin »). Autrement dit, Plantinga se débarrasse divinement de la « charge
de la preuve », soit la porte ouverte à toute croyance quelle qu’elle
soit. Si cette faculté "proprement basique" existait, elle semble
produire des croyances contradictoires selon les cultures, ce qui remet en
cause sa fiabilité.
Finalement, peut-on dire que la foi correspond à un degré d'immaturité ou
de méconnaissance du monde ? La
réponse est nuancée :
Oui, si la
foi se substitue à la science pour expliquer des phénomènes naturels (ex :
attribuer une maladie à un démon plutôt qu'à un virus). Dans ce cas, elle
relève d'une pensée magique pré-rationnelle ou d'une méconnaissance
factuelle.
Non, si la
foi s'inscrit dans une quête de sens (téléologie) qui accepte pleinement
les acquis scientifiques. Dans ce cadre, elle relève d'une dimension
différente de la conscience humaine mais nécessite une réactualisation
permanente des textes fondateurs « sacrés » que les croyants ont
quelque mal à contrarier.
Finalement, admettre
la croyance dans un surnaturel et/ou une religion quelconque : le problème
n’est pas là ! C’est l’affaire de chacun, avec son éducation, sa maturité intellectuelle/émotionnelle, ses
préoccupations existentielles, les difficultés rencontrées, l’avancée en âge
etc.
Là où la croyance dans un surnaturel quelconque devient inadmissible, c’est
quand elle s’impose à tous comme c’est le cas dans nos sociétés dite laïques. Le
seul socle idéologique commun à l’humanité est celui du matérialisme
scientifique laissant chacun croire en ce qu’il veut (peut) tout en restant dans le cadre des lois
communes.
Or cette
laïcité est incomplète si l’on considère rationnellement que le libre arbitre
est une croyance surnaturelle échappant aux lois naturelles déterministes et
indéterministes.
Ce résidu de croyance spiritualiste est à l’origine de bien
des malheurs de l’humanité (voir Le côté obscur du libre arbitre).
Le test du chamallow (marshmallow), mené en 1972 par
Walter Mischel à Stanford, suit un protocole très simple :
Un enfant
est placé seul dans une pièce.
On lui
présente un chamallow (ou une friandise équivalente).
On lui
dit : « Tu peux le manger maintenant. Mais si tu attends mon retour
sans le manger, tu en auras deux. »
Les
chercheurs mesurent le temps de résistance à la tentation.
Rappelons au passage que, même pour les croyants les plus fervents dans un libre arbitre humain, les enfants que l'on voit dans cette vidéo ne sont pas censés en posséder... Et pourtant ils font des choix différents.
Comment est-ce possible, sans libre arbitre ?
Ce protocole visait donc à évaluer la gratification
différée, c’est‑à‑dire la capacité à attendre une récompense plus grande
plutôt que de céder immédiatement à la tentation. Un tiens vaut mieux que deux tu l'auras ? (La
Fontaine / "Le petit poisson et le pêcheur")
Ca se discute !
Les premières analyses de Mischel suggéraient que les
enfants capables d’attendre plus longtemps avaient, des années plus tard,
de meilleurs résultats scolaires, une meilleure stabilité émotionnelle et
une plus grande réussite sociale. Cette interprétation a longtemps été présentée
comme une preuve que la maîtrise de soi serait un facteur déterminant de
réussite.
Mais les réplications plus récentes (Watts, Duncan
& Quan, 2018) ont fortement nuancé ces conclusions : le lien
entre « temps d’attente » et réussite future devient très faible
lorsqu’on contrôle des variables comme :
le
niveau socio‑économique,
la
stabilité familiale,
l’éducation
parentale,
la
confiance de l’enfant dans l’adulte.
"En nous concentrant sur les enfants dont les
mères n'avaient pas fait d'études supérieures, nous avons constaté qu'une
minute supplémentaire d'attente à l'âge de 4 ans prédisait un gain d'environ un
dixième d'écart-type dans la réussite scolaire à l'âge de 15 ans. Cependant,
cette corrélation bivariée était deux fois moins importante que celles
rapportées dans les études originales et était réduite des deux tiers après
contrôle des facteurs familiaux, des capacités cognitives précoces et de
l'environnement familial. La majeure partie de la variation de la réussite
scolaire à l'adolescence était liée à la capacité d'attendre au moins 20
secondes."
En clair : ce n’est
pas une volonté individuelle qui tomberait du ciel et expliquerait la réussite, mais bien le contexte - non choisi librement - dans
lequel l’enfant grandit.
Un enfant issu d’un milieu stable et prévisible
peut attendre, car il a appris que les promesses sont tenues.
Un enfant issu d’un milieu instable mange immédiatement, car il a appris que
les récompenses futures sont incertaines.
Par ailleurs, certaines prédispositions génétiques influencent l’impulsivité, la
sensibilité à la récompense et la
régulation émotionnelle.
Dans tous les cas, il ne s’agit pas d’un choix
libre (volonté libre / libre arbitre), mais bien d’une stratégie adaptative qui s'impose au monde du vivant.
Cette lecture rejoint une conception déterministe de l’action humaine : nos
décisions ne surgissent pas d’un « moi » libre, mais d’un ensemble de causes —
génétiques, neurobiologiques, affectives, sociales — qui façonnent nos
préférences, nos attentes et nos réactions. Le test du marshmallow devient
alors un exemple pédagogique de ce que les neurosciences et la psychologie
contemporaine montrent de plus en plus clairement : ce que nous appelons «
choix » n’est souvent que la manifestation consciente d’un processus déterminé
en amont.
L’illusion du libre arbitre naît du fait que nous ressentons nos décisions comme libres, alors qu’elles sont le produit d’un enchaînement causal dont nous ne percevons que la dernière étape. L’enfant croit choisir, alors qu'il ne fait qu’exprimer une configuration biologique et éducative complexe... mais déterminée.
Ainsi, loin de révéler une capacité morale ou une vertu personnelle, le test du marshmallow illustre la manière dont nos comportements sont enracinés dans des déterminants qui nous précèdent.
Il montre que la liberté que nous nous attribuons est souvent une reconstruction après coup, un récit que nous produisons pour donner sens à des actions dont les causes profondes nous échappent.
Cependant, le déterminisme n’est pas une fatalité : c’est un
appel à agir sur les causes.
Si les comportements des enfants sont déterminés
par leur génétique, leur environnement et leurs expériences précoces, alors
l’éducation devient un levier central. Accompagner un enfant dans un cadre
déterministe revient à :
créer un
environnement stable et prévisible,
renforcer
la confiance dans les adultes,
offrir
des modèles cohérents,
réduire
l’exposition au stress,
encourager
des routines qui structurent la régulation émotionnelle,
comprendre
que les comportements difficiles ne sont pas des fautes, mais des symptômes
de déterminants modifiables.
Le test du marshmallow illustre parfaitement cela
: un enfant qui « échoue » ne manque pas de volonté ; il manque de conditions
favorables. L’éducation devient alors un travail sur les causes, non un
jugement sur les effets. Ce qui reste valable pour l'adulte qui n'a pas plus de libre arbitre que l'enfant.
Le déterminisme ne nie pas la possibilité d’agir : il déplace la responsabilité vers les conditions qui rendent l’action
possible. Il invite à comprendre
plutôt que blâmer, prévenir
plutôt que punir, accompagner
plutôt que juger.
Dans ce cadre, la société devient un système de co‑construction
des déterminants, et non un tribunal du libre arbitre.
On pourrait même parler du paradoxe du chamallow : plus on y résiste enfant, meilleure sera notre réussite sociale et donc, plus on pourra se gaver de chamallows par la suite !