L’intelligence collective (IC) est devenue
un objet central dans les discours institutionnels, les pratiques
organisationnelles et les recherches en sciences humaines et sociales.
Cette IC intervient dans tous les
recoins de notre vie commune (votes en politique, décisions en entreprise, dans les
collectivités « participatives » et associations diverses etc. Bref,
partout en société. Chaque individu nécessairement singulier (génétique /
environnement / stochastique) apporte ce qu’il est, est influencé, modifie ses
convictions et décisions en fonction des nouveaux déterminants auxquels il est
confronté.
Cette vidéo du Docteur en Ethologie Mehdi Moussaïd montre bien les enjeux de cette IC :
Cette IC qui semble faire bien "mieux" que la plupart des individus pris séparément laisse entière la question de savoir comment on en arrive à l'Amérique de Trump, la Russie de Poutine ou la Chine de de Xi Jinping... pour ne prendre que des exemples de l'actualité sans remonter à Hitler porté par l'IC allemande en 1933. Mais le fond de mon propos n'est pas là.
Ce qui motive cet article est l'inconsistance pour moi des prémisses philosophico-scientifiques compatibilistes de cet excellent chercheur.
Pour Mehdi Moussaïd, chaque cobaye arrive avec son libre arbitre (quelle en est sa définition personnelle ? voir Libre arbitre : KEZAKO ?) tout en montrant dans ses expériences que les avis / décisions changent en fonction des déterminants et manipulations non choisis "librement". La cohérence globale du propos est mise à mal mais Mehdi Moussaïd ne fait ici que conforter ce que disent malheureusement nombre de scientifiques et de philosophes pour lesquels libre arbitre et déterminants font bon ménage (compatibilisme). Dans d'autres propos, il semble montrer que le libre arbitre n'existe pas... Il serait bon dans ce cas de ne pas en parler comme s'il existait !
Rappelons que la notion d'émergence de nouvelles propriétés ne doit rien à la magie d'un libre arbitre ontologique (voir L'émergence de Lenia et Libre arbitre : une propriété émergente compatible avec la science ?). De la même manière, l'impossibilité de connaître toutes les caractéristiques d'une seule molécule de gaz (= les déterminants qui font un "individu non prévisible") n'empêche pas pour autant la prévisibilité d'un grand nombre de molécules. Si vous lancez un dé une fois, le résultat est
imprévisible. Si vous le lancez un milliard de fois, vous êtes certain que la
moyenne sera très proche de 3,5. Pour un gaz, c'est la même chose : les comportements
individuels extrêmes s'annulent.
L'impossibilité de connaître l'unité n'empêche
pas la certitude sur la masse. En fait, c'est précisément parce qu'elles sont
si nombreuses que les erreurs de prédiction individuelles deviennent
négligeables. Ce qui est à rapprocher de la notion de chaos déterministe (voir Du chaos déterministe au hasard quantique : que reste-t-il du libre arbitre ?).
Finalement, nul besoin d'un pseudo libre arbitre ontologique - qui est d'ailleurs incompatible avec les lois déterministes et indéterministes de le la Nature - pour travailler en sciences humaines.
Ceci ne remet pas en cause les résultats forts intéressants de ce chercheur mais montre que la science sans conscience philosophique étayée entretient des idées reçues délétères (voir Le côté obscur du libre arbitre).
La foi et le surnaturel sont-ils synonymes
d'immaturité intellectuelle ?
Après des siècles de croyances diverses protéiformes qui se cannibalisent entre elles, la question de savoir si la croyance religieuse ou l'adhésion au surnaturel
relève d'une forme d'immaturité - sinon d'une méconnaissance des mécanismes du monde - qui est au cœur de la modernité.
Depuis le « désenchantement du monde » décrit par le sociologue Max Weber, une idée s'est ancrée en Occident : à mesure
que la science progresse et illumine les zones d'ombre de notre ignorance, le
besoin de surnaturel devait mécaniquement reculer.
Pourtant, au XXIe siècle, la foi persiste, se transforme et cohabite
parfois avec une haute culture scientifique.
L'idée que la religion est une étape "infantile" du développement
humain repose sur deux piliers majeurs de la pensée des XIXe et XXe siècles. Le
père du positivisme, Auguste Comte, a théorisé dans son Cours de philosophie positive (1830-1842) que
l'humanité traverse trois phases, comparables au développement d'un individu :
L'état théologique (l'enfance)
: l'homme explique les phénomènes naturels par des agents surnaturels
(dieux, esprits, Père Noël…) par manque de connaissances causales.
L'état métaphysique
(l'adolescence) : les divinités sont remplacées par des
concepts abstraits (la Nature, l'Être...).
L'état positif (l'âge adulte)
: l'esprit renonce à chercher le "pourquoi" absolu, sans issue, pour se
concentrer sur le "comment" par l'observation scientifique.
Selon cette vision, croire au surnaturel aujourd'hui serait un anachronisme
cognitif, un refus de passer à l'âge adulte de la raison.
Dans L'Avenir d'une illusion (1927), Sigmund Freud propose une critique psychologique
dévastatrice. Pour lui, la religion est une « névrose obsessionnelle
universelle ». Elle naît de la détresse infantile face à une nature hostile
et à la certitude de la mort. L'adulte, effrayé par la vie, projette
dans le ciel une figure paternelle protectrice (Dieu) pour se rassurer, tout
comme l'enfant se tourne vers son père. La maturité consiste à abandonner cette
béquille psychique pour affronter la réalité crue ("l'éducation à la
réalité").
Cet argument, popularisé par les penseurs athées contemporains comme Richard Dawkins (Pour en finir avec Dieu,
2006), suggère que le surnaturel n'habite que les interstices de notre
ignorance. Le monde de Spinoza, le réel, n'a rien pour plaire.
Aucun principe ne le régit, aucune morale ne le transcende, aucune providence
ne l'ordonne. C'est un monde absurde (Camus n'est pas loin), où le crime paie parfois (Staline est tranquillement mort dans son lit), et où la vertu
n'a pas d'autre récompense qu'elle-même. Autrefois, on attribuait la foudre à
Zeus ; la météorologie l'ayant expliquée, Zeus a disparu. Si la foi n'est
qu'une « explication par défaut », elle est effectivement le signe d'une
méconnaissance du monde.
Si la thèse de l'immaturité est séduisante par sa logique, elle se heurte à
des réalités sociologiques et épistémologiques complexes. Le paléontologue et
biologiste de l'évolution Stephen Jay Gould a
proposé dans Et Dieu dit : « Que Darwin soit ! » (1999) le principe
de NOMA (Non-Overlapping Magisteria ou Magistère Non Superposé).
La Science couvre
le domaine des faits empiriques (de quoi l'univers est fait et comment il
fonctionne).
La Religion couvre
le domaine du sens, des valeurs morales et des buts ultimes.
Selon Gould, qui est agnostique, une personne peut être parfaitement mature
et instruite (domaine 1) tout en ayant la foi (domaine 2), car ces deux
domaines répondent à des questions différentes. L'immaturité serait de
confondre les deux (ex : le créationnisme qui nie les découvertes en géologie,
ou le scientisme qui prétend dicter la morale).
N.B : la plupart des religieux ont une foi absolue dans des textes « sacrés »
et datés en contradiction totale avec les connaissances scientifiques. Des
philosophes des sciences notent ainsi que la religion fait souvent des
affirmations factuelles (création, miracles, origine de l’univers), ce qui
contredit l’idée d’une séparation parfaite entre sciences et religions. Par
ailleurs, l’évolution de la morale humaine (et proto-morale animale) s’explique
scientifiquement dans des termes évolutionnistes afin de garantir au mieux la
survie de l’espèce et de l’individu (coopération versus trahison etc.). Samuli
Helama (2024) rappelle que NOMA est souvent présenté comme un
modèle d’indépendance, mais que cette vision est trop simplificatrice, car la
religion intervient aussi sur des questions de réalité, et non pas seulement de
morale. Gould a lui‑même évolué vers une vision plus souple, parlant d’une
“consilience of equal regard”, reconnaissant que les frontières entre
disciplines sont plus poreuses qu’il ne le disait initialement.
Certains affirment que l'argument de la « méconnaissance du monde » pour
expliquer le surnaturel s'effondre face à la liste des scientifiques de premier
plan qui revendiquent une foi active. Le simple fait qu'ils existent prouverait
que la connaissance du monde physique n'entraîne pas automatiquement
l'athéisme.
Georges Lemaître : prêtre
catholique et physicien, père de la théorie du Big Bang. Il tenait à
séparer strictement sa foi de ses calculs cosmologiques.
Francis Collins : directeur
du projet Génome Humain. Dans De la génétique à Dieu
(2006), il explique comment le décryptage de l'ADN a renforcé son
émerveillement spirituel plutôt que de l'éteindre.
Pour autant, l'identité religieuse - y compris chez les scientifiques - s'estompe
dans de nombreux pays. De 2010 à 2020, la part de la population se déclarant
affiliée à une religion a diminué d'au moins 5 points de pourcentage dans 35
pays, selon une étude récente du Pew Research Center.
Au lieu de voir la foi comme un défaut de connaissance ou d'intelligence,
les recherches actuelles tendent à la voir comme une fonction cognitive
naturelle ou un « choix » (libre ?) existentiel conscient.
Des chercheurs comme Justin Barrett (Born Believers, 2012) suggèrent que le cerveau humain
est biologiquement câblé pour la croyance :
HADD (Dispositif de détection d'agence hyperactive) : du point
de vue évolutif, il est préférable de croire qu'un bruit dans les buissons
est un prédateur potentiel plutôt que le vent. Nous avons une tendance
innée à détecter des intentions et des esprits partout. Cette tranche sortie du toaster est bien évidemment un signe que m'envoie Jésus, non ? A moins que ce ne soit Cyrano de Bergerac...
Nuance sur l'immaturité : si la croyance est un "instinct
cognitif", l'athéisme demande un effort contre-intuitif. Cela ne rend
pas la foi "immature", mais "naturelle". La
maturité résiderait alors dans la capacité à examiner critiquement cet
instinct.
Il semble bien que l'évolution nous ait doté d'un "raisonnement motivé" destiné à nous faire prendre des vessies pour des lanternes comme le montre cette conférence d'un neuroscientifique. Nous restructurons la réalité pour qu'elle "colle" avec notre position initiale...
La remise en cause de nos "causes" antérieures idéologiques / religieuses n'est pas une sinécure. Encore faut-il accepter de lutter contre une désinformation permanente et appliquer certaines mesures de protection...
Pour le philosophe très croyant Søren Kierkegaard, la foi n'est pas une
connaissance imparfaite, mais une décision prise au-delà de la raison. Ce n'est
pas croire faute de preuves, c'est croire malgré l'absence de preuves. Dans
cette optique, la foi demanderait une maturité vertigineuse : accepter
l'incertitude objective (le "silence de Dieu") et choisir d'y engager
sa vie. C'est l'opposé de la superstition rassurante décrite par Freud ; c'est
une prise de risque existentielle (?)
Le philosophe contemporain Alvin Plantinga
soutient que la croyance en Dieu peut être "proprement basique"
(comme croire en l'existence d'autrui ou du passé), et ne nécessite pas de
preuves scientifiques pour être rationnelle, tant qu'elle n'est pas contredite par
des faits avérés ("Sensus Divinitatis" ou « sens
du divin »). Autrement dit, Plantinga se débarrasse divinement de la « charge
de la preuve », soit la porte ouverte à toute croyance quelle qu’elle
soit. Si cette faculté "proprement basique" existait, elle semble
produire des croyances contradictoires selon les cultures, ce qui remet en
cause sa fiabilité.
Finalement, peut-on dire que la foi correspond à un degré d'immaturité ou
de méconnaissance du monde ? La
réponse est nuancée :
Oui, si la
foi se substitue à la science pour expliquer des phénomènes naturels (ex :
attribuer une maladie à un démon plutôt qu'à un virus). Dans ce cas, elle
relève d'une pensée magique pré-rationnelle ou d'une méconnaissance
factuelle.
Non, si la
foi s'inscrit dans une quête de sens (téléologie) qui accepte pleinement
les acquis scientifiques. Dans ce cadre, elle relève d'une dimension
différente de la conscience humaine mais nécessite une réactualisation
permanente des textes fondateurs « sacrés » que les croyants ont
quelque mal à contrarier.
Finalement, admettre
la croyance dans un surnaturel et/ou une religion quelconque : le problème
n’est pas là ! C’est l’affaire de chacun, avec son éducation, sa maturité intellectuelle/émotionnelle, ses
préoccupations existentielles, les difficultés rencontrées, l’avancée en âge
etc.
Là où la croyance dans un surnaturel quelconque devient inadmissible, c’est
quand elle s’impose à tous comme c’est le cas dans nos sociétés dite laïques. Le
seul socle idéologique commun à l’humanité est celui du matérialisme
scientifique laissant chacun croire en ce qu’il veut (peut) tout en restant dans le cadre des lois
communes.
Or cette
laïcité est incomplète si l’on considère rationnellement que le libre arbitre
est une croyance surnaturelle échappant aux lois naturelles déterministes et
indéterministes.
Ce résidu de croyance spiritualiste est à l’origine de bien
des malheurs de l’humanité (voir Le côté obscur du libre arbitre).
Le test du chamallow (marshmallow), mené en 1972 par
Walter Mischel à Stanford, suit un protocole très simple :
Un enfant
est placé seul dans une pièce.
On lui
présente un chamallow (ou une friandise équivalente).
On lui
dit : « Tu peux le manger maintenant. Mais si tu attends mon retour
sans le manger, tu en auras deux. »
Les
chercheurs mesurent le temps de résistance à la tentation.
Rappelons au passage que, même pour les croyants les plus fervents dans un libre arbitre humain, les enfants que l'on voit dans cette vidéo ne sont pas censés en posséder... Et pourtant ils font des choix différents.
Comment est-ce possible, sans libre arbitre ?
Ce protocole visait donc à évaluer la gratification
différée, c’est‑à‑dire la capacité à attendre une récompense plus grande
plutôt que de céder immédiatement à la tentation. Un tiens vaut mieux que deux tu l'auras ? (La
Fontaine / "Le petit poisson et le pêcheur")
Ca se discute !
Les premières analyses de Mischel suggéraient que les
enfants capables d’attendre plus longtemps avaient, des années plus tard,
de meilleurs résultats scolaires, une meilleure stabilité émotionnelle et
une plus grande réussite sociale. Cette interprétation a longtemps été présentée
comme une preuve que la maîtrise de soi serait un facteur déterminant de
réussite.
Mais les réplications plus récentes (Watts, Duncan
& Quan, 2018) ont fortement nuancé ces conclusions : le lien
entre « temps d’attente » et réussite future devient très faible
lorsqu’on contrôle des variables comme :
le
niveau socio‑économique,
la
stabilité familiale,
l’éducation
parentale,
la
confiance de l’enfant dans l’adulte.
"En nous concentrant sur les enfants dont les
mères n'avaient pas fait d'études supérieures, nous avons constaté qu'une
minute supplémentaire d'attente à l'âge de 4 ans prédisait un gain d'environ un
dixième d'écart-type dans la réussite scolaire à l'âge de 15 ans. Cependant,
cette corrélation bivariée était deux fois moins importante que celles
rapportées dans les études originales et était réduite des deux tiers après
contrôle des facteurs familiaux, des capacités cognitives précoces et de
l'environnement familial. La majeure partie de la variation de la réussite
scolaire à l'adolescence était liée à la capacité d'attendre au moins 20
secondes."
En clair : ce n’est
pas une volonté individuelle qui tomberait du ciel et expliquerait la réussite, mais bien le contexte - non choisi librement - dans
lequel l’enfant grandit.
Un enfant issu d’un milieu stable et prévisible
peut attendre, car il a appris que les promesses sont tenues.
Un enfant issu d’un milieu instable mange immédiatement, car il a appris que
les récompenses futures sont incertaines.
Par ailleurs, certaines prédispositions génétiques influencent l’impulsivité, la
sensibilité à la récompense et la
régulation émotionnelle.
Dans tous les cas, il ne s’agit pas d’un choix
libre (volonté libre / libre arbitre), mais bien d’une stratégie adaptative qui s'impose au monde du vivant.
Cette lecture rejoint une conception déterministe de l’action humaine : nos
décisions ne surgissent pas d’un « moi » libre, mais d’un ensemble de causes —
génétiques, neurobiologiques, affectives, sociales — qui façonnent nos
préférences, nos attentes et nos réactions. Le test du marshmallow devient
alors un exemple pédagogique de ce que les neurosciences et la psychologie
contemporaine montrent de plus en plus clairement : ce que nous appelons «
choix » n’est souvent que la manifestation consciente d’un processus déterminé
en amont.
L’illusion du libre arbitre naît du fait que nous ressentons nos décisions comme libres, alors qu’elles sont le produit d’un enchaînement causal dont nous ne percevons que la dernière étape. L’enfant croit choisir, alors qu'il ne fait qu’exprimer une configuration biologique et éducative complexe... mais déterminée.
Ainsi, loin de révéler une capacité morale ou une vertu personnelle, le test du marshmallow illustre la manière dont nos comportements sont enracinés dans des déterminants qui nous précèdent.
Il montre que la liberté que nous nous attribuons est souvent une reconstruction après coup, un récit que nous produisons pour donner sens à des actions dont les causes profondes nous échappent.
Cependant, le déterminisme n’est pas une fatalité : c’est un
appel à agir sur les causes.
Si les comportements des enfants sont déterminés
par leur génétique, leur environnement et leurs expériences précoces, alors
l’éducation devient un levier central. Accompagner un enfant dans un cadre
déterministe revient à :
créer un
environnement stable et prévisible,
renforcer
la confiance dans les adultes,
offrir
des modèles cohérents,
réduire
l’exposition au stress,
encourager
des routines qui structurent la régulation émotionnelle,
comprendre
que les comportements difficiles ne sont pas des fautes, mais des symptômes
de déterminants modifiables.
Le test du marshmallow illustre parfaitement cela
: un enfant qui « échoue » ne manque pas de volonté ; il manque de conditions
favorables. L’éducation devient alors un travail sur les causes, non un
jugement sur les effets. Ce qui reste valable pour l'adulte qui n'a pas plus de libre arbitre que l'enfant.
Le déterminisme ne nie pas la possibilité d’agir : il déplace la responsabilité vers les conditions qui rendent l’action
possible. Il invite à comprendre
plutôt que blâmer, prévenir
plutôt que punir, accompagner
plutôt que juger.
Dans ce cadre, la société devient un système de co‑construction
des déterminants, et non un tribunal du libre arbitre.
On pourrait même parler du paradoxe du chamallow : plus on y résiste enfant, meilleure sera notre réussite sociale et donc, plus on pourra se gaver de chamallows par la suite !
Pendant longtemps, l’humain s’est considéré comme
radicalement différent des autres animaux.
Pourtant, les recherches modernes en éthologie, psychologie comparée et
neurosciences montrent que la plupart des comportements humains ont des
équivalents dans le règne animal.
Les études récentes sur les émotions animales
confirment que les animaux possèdent :
des
émotions complexes (joie, peur, tristesse, colère)
des
formes de conscience émotionnelle
des
comportements sociaux élaborés
des
stratégies de séduction, de coopération et de conflit
des
cultures locales et des traditions comportementales
Les émotions animales ne sont plus un sujet
spéculatif : elles sont documentées par des études comportementales,
neurologiques et endocriniennes.
Par exemple, la joie est un comportement observable et mesurable chez l'animal.
Ainsi, les éléphants manifestent une joie intense lors
des retrouvailles :
vocalisations
spécifiques
battements
d’oreilles
caresses
de trompe
synchronisation
des mouvements
Ces comportements sont décrits comme des manifestations émotionnelles authentiques.
Les chiens sécrètent de l’ocytocine - l’hormone
du lien - lorsqu’ils retrouvent leur maître. Cette réaction est similaire à celle observée chez les humains lors
d’interactions affectives.
Les corbeaux jouent, glissent sur la neige,
manipulent des objets sans but utilitaire. Le jeu est un indicateur d’émotions positives.
La
tristesse, le chagrin et le deuil sont des comportements complexes présents chez les animaux :
Les éléphants sont connus pour :
visiter
les os de leurs morts
rester
près d’un cadavre
toucher
les restes avec délicatesse
Les dauphins ont été observés soutenant un petit
mort à la surface, comme s’ils tentaient encore de le faire respirer.
Des mères chimpanzés portent leur bébé mort
pendant plusieurs jours. Les autres membres du groupe montrent des comportements de soutien.
La peur est également un mécanisme universel :
Les rats présentent des réponses de peur
mesurables :
paralysie
cris
ultrasoniques
augmentation
du cortisol
Les oiseaux émettent des cris d’alarme différents
selon le type de prédateur. C’est une forme de communication émotionnelle.
L’empathie animale est un phénomène démontré scientifiquement
L’étude Bridging the Gap: Human and Animal
Emotions (Affective Science) montre que l’empathie animale est mesurable de par :
Des rats libèrent un congénère prisonnier même
lorsqu’ils pourraient choisir une récompense alimentaire.
Les dauphins aident des humains en détresse, un
comportement documenté dans plusieurs études.
Les corbeaux réagissent à l’injustice : ils
refusent de coopérer si un autre reçoit une récompense supérieure pour le même
effort.
PROTECTION MATERNELLE ET LIENS FAMILIAUX : des parallèles profonds
Les primates montrent :
un portage
ventral
des câlins
du réconfort
un apprentissage
par imitation
une transmission
culturelle
Ces comportements sont décrits dans plusieurs
synthèses scientifiques sur les émotions animales.
Les éléphantes vivent en clans matriarcaux : les
tantes et sœurs participent à l’éducation ; les
petits sont protégés collectivement ; les
adultes forment un cercle défensif autour des jeunes.
Chez les loups, la meute est une famille : les
jeunes adultes aident à élever les petits, les
parents enseignent la chasse et les
membres blessés sont nourris.
HIÉRARCHIES SOCIALES ET POLITIQUE ne sont pas absentes chez l'animal.
Ainsi, les chimpanzés fourbissent des alliances
politiques, avec manipulations
sociales si nécessaires, des réconciliations après conflit, et même des stratégies
de domination non violentes. Ces comportements sont décrits dans les études
sur les émotions et la conscience animale (royalsocietypublishing.org).
Chez les bonobos, les
femelles dominent et les
conflits sont apaisés par des interactions sociales. La
cohésion du groupe est prioritaire.
SÉDUCTION, ATTACHEMENT ET COMPORTEMENTS AMOUREUX ne sont pas l'apanage des humains, manifestement...
La roue du paon est un signal complexe comportant des éléments de symétrie, de taille, de vibration
des plumes et de préférences
individuelles des femelles.
Chez les oiseaux
chanteurs, les chants sont appris culturellement. Les femelles réagissent émotionnellement à la qualité du chant.
Chez les pingouins, les couples se retrouvent chaque année grâce à
des appels uniques. Ils manifestent des comportements de joie lors des retrouvailles.
CE QUI
SEMBLE RÉELLEMENT PROPRE À L’HUMAIN ?
Selon les études scientifiques (Royal Society
Open Science, Affective Science), trois domaines se distinguent :
1️⃣ Le langage symbolique complexe
Aucune espèce ne combine syntaxe, grammaire et
abstraction comme l’humain.
2️⃣ La culture cumulative
Les animaux ont des cultures, mais elles ne
s’accumulent pas sur des siècles.
3️⃣ La pensée abstraite avancée
L’humain excelle dans :
mathématiques
philosophie
art
symbolique
planification
à long terme
Finalement, les animaux ressentent, apprennent, coopèrent,
aiment, pleurent, se réjouissent, se battent, se réconcilient.
Les études scientifiques modernes montrent que leurs émotions sont réelles,
mesurables, et souvent proches des nôtres.
La frontière entre l’humain et l’animal n’est pas
une rupture, mais un continuum évolutif dans lequel les différences ne sont pas de nature mais de degrés.
Il serait peut-être temps de tenir compte de ce que l'on sait maintenant de nos cousins.
Le concept de "peuple élu" a traversé les siècles, évoluant d'une
idée théologique ancrée dans les traditions religieuses anciennes à une notion
parfois instrumentalisée pour justifier des projets politiques, culturels ou
impérialistes. Ce terme, souvent associé aux récits bibliques et à la tradition
judéo-chrétienne, a également trouvé des échos dans d'autres cultures et contextes,
où des groupes se sont revendiqués comme dépositaires d'une mission divine ou
d'une supériorité civilisationnelle.
Le "peuple élu" dans la
tradition hébraïque
Le concept de "peuple élu" trouve ses racines dans la Bible
hébraïque, où le peuple d'Israël est décrit comme choisi par Dieu pour établir
une alliance spéciale. Dans le livre du Deutéronome (7:6), il est écrit
: « Car tu es un peuple saint pour l'Éternel, ton Dieu ; l'Éternel, ton Dieu,
t'a choisi pour que tu sois un peuple qui lui appartienne en propre, parmi tous
les peuples qui sont sur la face de la terre. » Cette élection n'implique pas
nécessairement une supériorité intrinsèque (quoique...), mais une responsabilité : respecter
les commandements divins et être un « royaume de prêtres et une nation sainte »
(Exode 19:6).
Selon les exégètes comme Jon D. Levenson (The Hebrew Bible, the Old
Testament, and Historical Criticism, 1993), cette idée d'élection reflète
une relation où l'obéissance à Dieu est centrale. Cependant, cette
notion a souvent été interprétée comme une exclusivité, alimentant des tensions
avec les peuples voisins dans l'Antiquité, comme les Cananéens ou les
Philistins.
Bien que le concept soit emblématique de la tradition hébraïque, des parallèles
existent dans d'autres civilisations. Les Égyptiens, par exemple, se
considéraient comme les favoris des dieux, leur terre étant le centre du cosmos
sous la protection d'Amon-Rê. Dans l'Empire perse achéménide, les rois se
présentaient comme mandatés par Ahura Mazda pour gouverner les peuples. Ces
revendications d'une mission divine servaient souvent à légitimer le pouvoir et
à unifier des empires multiculturels, comme l'explique Pierre Briant dans Histoire
de l'Empire perse (1996).
Avec l'émergence du christianisme, le concept de "peuple élu"
s'élargit. Le Nouveau Testament, notamment dans les écrits pauliniens (Galates
3:28), redéfinit l'élection comme accessible à tous, juifs et gentils, par la
foi en Jésus-Christ. Cette universalisation marque une rupture avec
l'exclusivité ethnique de l'alliance mosaïque, mais elle conserve l'idée d'une
communauté choisie pour une mission spirituelle.
Au Moyen Âge, l'Église catholique se présente comme le nouveau "peuple
élu", chargé de répandre la foi chrétienne. Cette vision justifie les
croisades (1095-1291), où la reconquête des lieux saints est perçue comme une
mission divine. Comme le note Jonathan Riley-Smith dans The Crusades: A
History (2005), cette idéologie a souvent servi à mobiliser les masses et à
légitimer la violence contre les "infidèles".
Dans l'Europe médiévale, des royaumes comme la France et l'Angleterre
revendiquent également un statut d'élection divine. Les rois de France, par
exemple, se proclament "fils aînés de l'Église" et bénéficient d'un
sacre à Reims, renforçant l'idée d'une nation choisie par Dieu. Marc Bloch,
dans Les Rois thaumaturges (1924), montre comment cette sacralisation du
pouvoir a consolidé l'autorité monarchique.
À l'époque moderne, le concept de "peuple élu" prend une
dimension séculière, notamment dans le contexte de l'expansion coloniale
européenne (XVIe-XIXe siècles). Les puissances européennes, comme l'Espagne, le
Portugal, la France et la Grande-Bretagne, justifient leurs conquêtes par une
"mission civilisatrice", un écho laïcisé de l'idée d'élection divine.
Les colonisateurs se présentent comme porteurs d'une culture et d'une religion
supérieures, destinées à "élever" les peuples colonisés.
Edward Said, dans L'Orientalisme (1978), analyse comment cette
vision ethnocentrique a construit un imaginaire de supériorité occidentale, où
les colonisés sont dépeints comme inférieurs et nécessitant une tutelle. Par
exemple, la doctrine du White Man's Burden (fardeau de l'homme blanc) de
Rudyard Kipling reflète cette idée d'une responsabilité autoproclamée des Européens
à "civiliser" le monde.
Aux États-Unis, le concept de "peuple élu" prend une forme
particulière avec les colons puritains du XVIIe siècle. John Winthrop, dans son
sermon A Model of Christian Charity (1630), décrit la colonie de la baie
du Massachusetts comme une « ville sur la colline », un exemple moral pour le
monde. Cette vision évolue au XIXe siècle avec la doctrine du Manifest
Destiny, qui justifie l'expansion territoriale américaine comme une mission
divine.
Comme l'explique Anders Stephanson dans Manifest Destiny: American
Expansion and the Empire of Right (1995), cette idéologie a légitimé la
conquête des terres autochtones et la guerre contre le Mexique (1846-1848).
L'idée d'une nation élue a ainsi servi de fondement à l'impérialisme américain,
notamment lors des interventions en Amérique latine et aux Philippines à la fin
du XIXe siècle.
Au XXe siècle, le concept de "peuple élu" se retrouve dans les
discours nationalistes. En Allemagne nazie, l'idéologie aryenne exalte le
peuple allemand comme une race supérieure, choisie pour dominer le monde. Cette
perversion du concept, analysée par Saul Friedländer dans L'Allemagne nazie
et les Juifs (1997), montre comment une rhétorique d'élection peut
justifier des atrocités.
Dans le contexte juif, le concept de "peuple élu" prend une
nouvelle dimension avec le sionisme. Theodor Herzl, dans L'État des Juifs
(1896), propose la création d'un État juif en réponse aux persécutions
antisémites. Pour de nombreux sionistes religieux, le retour à la terre
d'Israël est l'accomplissement d'une promesse divine. Cependant, comme le
souligne Benny Morris dans Righteous Victims (1999), cette revendication
a engendré des conflits avec les populations palestiniennes, illustrant les
tensions inhérentes à l'idée d'une terre "promise" à un peuple
spécifique.
Aujourd'hui, le concept de "peuple élu" continue d'être invoqué,
souvent à des fins politiques. Aux États-Unis, l'évangélisme chrétien soutient
parfois l'idée d'une nation élue, influençant la politique étrangère, notamment
envers Israël. Dans d'autres contextes, des régimes autoritaires utilisent des
rhétoriques similaires pour galvaniser leurs populations, comme en Russie, où
l'Église orthodoxe présente le pays comme un rempart spirituel contre l'Occident.
Les chercheurs contemporains, comme Anthony D. Smith dans Chosen Peoples
(2003), soulignent que l'idée de "peuple élu" est une construction
culturelle, souvent utilisée pour renforcer l'identité collective face à
l'adversité. Cependant, elle peut aussi alimenter l'exclusion, le chauvinisme
et les conflits. La déconstruction de ce concept invite à réfléchir sur les
dangers de l'essentialisme et sur la nécessité de promouvoir des identités
inclusives.
Finalement, le concept de "peuple élu" - revendiqué par bien des peuples - a évolué d'une idée théologique à un
outil de légitimation politique et impérialiste. De l'Antiquité à nos jours, il
a servi à consolider des identités collectives, mais aussi à justifier des
entreprises de domination, de l'expansion territoriale aux génocides. En
examinant son histoire, nous comprenons mieux comment les récits d’une pseudo "élection",
qu’ils soient religieux ou séculiers, façonnent les dynamiques de pouvoir et
les relations intergroupes.
Une approche critique de ce concept reste cruciale
pour en comprendre les implications dans un monde globalisé.
N'en déplaise à certains : dans un monde matérialiste, il n'y a pas de peuple élu.
Et ce n'est pas ce charabia spiritualiste - même de la part d'un Docteur en physique - qui peut convaincre du contraire :