Wikipedia

Résultats de recherche

Traduction

Eliminons ?

L’éliminativisme est une position en philosophie de l’esprit qui rejette l’existence des états mentaux comme les croyances ou les désirs, les considérant comme des concepts erronés de la "psychologie populaire".

Cette théorie, défendue par des philosophes comme Paul et Patricia Churchland, s’appuie sur les neurosciences pour remplacer ces concepts par des explications neurobiologiques.

L’éliminativisme, ou matérialisme éliminativiste, soutient que les états mentaux tels que les croyances, les désirs, les émotions ou les intentions – concepts centraux de la "psychologie populaire" – n’existent pas réellement. 

La psychologie populaire est le cadre intuitif que nous utilisons pour expliquer et prédire le comportement humain (ex. : "il est parti parce qu’il était en colère"). Selon les éliminativistes, ce cadre est une théorie naïve et erronée, comparable à des concepts scientifiques obsolètes comme le phlogiston (une substance hypothétique censée expliquer la combustion au XVIIIe siècle) ou encore l’alchimie qui a été éliminée au profit de meilleures explications. Avec les neuroscience notamment, la boîte à outils scientifique s'est améliorée (ne pas se tromper : c'est celle de droite). Il serait peut-être temps d'en tenir un peu compte.

Les Churchland soutiennent que les états mentaux ne correspondent pas à des entités réelles, mais à des processus neuronaux complexes. Par exemple, une croyance comme "je pense que le soleil est chaud" serait mieux décrite comme un ensemble d’activations dans des réseaux neuronaux spécifiques, sans référence à une "croyance" comme entité distincte.

Les Churchland considèrent que la psychologie populaire est une théorie stagnante qui n’a pas évolué depuis des siècles et qui échoue à expliquer des phénomènes complexes comme les troubles mentaux ou les processus inconscients. 

Les découvertes en neurosciences, comme la cartographie des réseaux neuronaux impliqués dans la prise de décision ou les émotions, suggèrent que nous pouvons expliquer le comportement humain sans recourir aux concepts de la psychologie populaire. Une étude (Neural substrates of decision-makingmontre que des processus comme la "décision" sont le résultat d’interactions entre différentes régions cérébrales, sans qu’il soit nécessaire de postuler des "désirs" ou des "intentionsLes éliminativistes proposent donc de remplacer complètement les termes de la psychologie populaire par un langage neuroscientifique : au lieu de dire "je suis triste", on parlerait d'une activité accrue dans l’amygdale et une diminution de la sérotonine !

Plusieurs objections ont été soulevées : des philosophes comme Daniel Dennett critiquent l’éliminativisme pour son rejet des qualia (expériences subjectives, comme le ressenti de la douleur). Même si les neurosciences peuvent décrire les processus cérébraux, elles ne capturent pas l’expérience vécue, qui semble réelle et significative pour les individus. 
De son coté, le philosophe Jerry Fodor considère que la psychologie populaire, bien qu’imparfaite, est extrêmement utile pour prédire et comprendre le comportement humain dans la vie quotidienne. Par exemple, dire "il a agi par jalousie" est une explication rapide et efficace, même si elle n’est pas neuroscientifiquement précisée. 
Enfin, une critique pratique est que nous n’avons pas encore un langage neuroscientifique suffisamment développé pour remplacer la psychologie populaire. Éliminer ces concepts dès maintenant pourrait rendre la communication et la compréhension du comportement humain difficiles.

Finalement, l’éliminativisme est une proposition intéressante dans la mesure où il s’aligne avec une vision matérialiste : tout peut être réduit à des processus physiques, comme le sont les "calculs" dans l'IA. Les neurosciences soutiennent que les états mentaux sont corrélés à des processus cérébraux, comme le montrent des études sur la décision ou les émotions. 

Cependant, les qualia de la psychologie populaire pour les humains offrent un cadre simple et intuitif pour interagir socialement

L’éliminativisme pourrait être une direction future, mais il semble prématuré tant que les neurosciences n’offrent pas une alternative "pratique".

En tout cas, cette théorie soulève des questions profondes sur la nature de l’esprit et sur la manière dont nous devrions décrire le comportement humain à l’avenir.

_________________________________________________

Et pour aller plus loin, le livre "La dernière blessure" centré sur la notion du libre arbitre (illusoire)... en cliquant sur l'image ci-dessous

Pourquoi l’IA est-elle haïe ?

L'intelligence artificielle (IA) a créé un véritable tsunami cognitif qui nous est arrivé de plein fouet fin 2022. 

Comme tout nouvel "outil" potentiellement délétère dont l'usage pourrait se retrouver en de mauvaises mains, l'IA est redoutée comme... le couteau, la poudre, la fission atomique etc., en leur temps. Rien de nouveau sous le soleil donc. L'affaire est entendue : l'IA pourrait faire des dégâts humains considérables (perte d'emplois, surveillance de masse, renforcement des inégalités, fin de l'humanité pour certains), mais son développement est inéluctable tant les bénéfices attendus sont extraordinaires dans tous les domaines. Et il faut des garde-fous, c'est certain.

Une autre façon de haïr l'IA est de "jalouser" son efficacité "intellectuelle", ses connaissances gigantesques qu'aucun humain ne pourrait acquérir et sa rapidité d'exécution qui laisse pantois. 

Bref, l'IA comme super humain en comparaison duquel nous nous sentons "déclassés". Il y a pourtant bien longtemps que la machine nous dépasse en rapidité, force, précision etc. Mais là, on touche aux connaissances, à la culture, à l'intelligence... et c'est insupportable ? Un léger bobo, une petite crise de croissance qui va passer. Et si nous cultivions un peu plus l'humilité ? 

Passons. Car ce à quoi je veux en venir ici n'a pas grand chose à voir avec ce préambule. Mais avant d'aborder le vif du sujet, il n'est pas inutile de voir comment cette IA se construit comme le montre finement cette vidéo. Notez au passage toutes les analogies énoncées ci-dessous entre le fonctionnement de la machine et celui de l'humain... On en reparle.

Notons tout d'abord que l'IA n'est pas surnaturelle mais simplement artificielle en référence à ce qui est produit par le travail, l'habileté ou l'ingéniosité de l'homme, et non par la nature elle-même. Il s'agit de quelque chose de fabriqué, fait de toutes pièces, imitant plus ou moins la nature. Les lois de la nature opèrent donc ici totalement, et il n'est pas possible de prêter à une machine l'ombre d'un libre arbitre (LA) quelconque.

Pourtant, le grand neuroscientifique Stanislas Dehaene parle d’une...

"machine capable de pondérer les informations et qui dispose d’une sorte de libre arbitre"

 Sur le fond, que veut dire une « sorte » de Libre Arbitre ? Il semble que le LA soit décrit ici comme le calcul de la délibération (cerveau bayésien et/ou cerveau statisticien), ce qui contraste avec la définition habituelle, classique, d'un LA qui « surplombe » les déterminants. Par ailleurs, si la machine possède un LA - ou une "sorte" de LA -, ce dernier ne serait plus l’apanage exclusif de l’Humain ? On serait en droit de traduire ces machines en justice (ou une "sorte" de justice - pour rester cohérent) dès lors qu’elles nous trahissent ; car les machines nous trahissent, comme chacun a pu le constater, ce qui est fort heureux pour les garagistes. 

Reste à savoir ce que serait cette "sorte" de justice décidant d’une "sorte" de peine du fait d’une "sorte" de LA. Retour vers les procès des animaux, et bientôt des machines ? Mais pourquoi donc conférer une "sorte de LA" à la machine plutôt que de convenir - ce qui semble bien plus rationnel - que le LA n’existe "réellement" ni pour la machine, ni pour l’animal, ni pour l’animal-humain. 

Comme abordé dans la vidéo :

  • La machine calcule "statistiquement" le mot qui doit venir après le précédent, comme un humain qui finit la phrase de la grand-mère cherchant ses mots ;
  • La machine peut se tromper, comme l'Humain ;
  • La machine a reçu une éducation plus ou moins poussée, comme l'Humain... avec "encadrement" afin d'éviter les dérives possibles, comme l'Humain... sans omettre de lui offrir quelques "récompenses" pour renforcer son éducation, comme l'Humain ;
  • La machine peut maintenant "raisonner" comme l'Humain ;
  • La réponse de la machine est imprévisible, comme celle d'un Humain ;
  • La machine peut se décliner en multiples "personnalités", comme l'Humain. Ainsi, Grok n'est pas Gemini qui n'est pas Mistral, qui n'est pas ChatGPT, qui n'est pas DeepSeek, qui n'est pas Copilot, qui n'est pas vous, qui n'est pas moi... 
Comme le précise dans "Parole de machines" Alexei Grinbaum (2023 - humenSciences - p.145) :

« Cette créativité extraordinaire, non humaine mais proche de la nôtre, n’a pas été programmée explicitement : elle est le fruit inattendu d’un apprentissage suffisamment riche et suffisamment complexe, qui donne à la machine une capacité, émergeante et surprenante, de ne pas répéter bêtement les phrases de son corpus d’apprentissage mais de les imiter tout en innovant... »
Il ne manque - dit-on - que la parole aux animaux, alors qu'il ne manque que les expériences sensibles aux ordinateurs et à l'IA en particulier. Pour l'instant.
On dit qu’elle ne "comprend" pas ce qu’elle raconte alors même que ses réponses sont le plus souvent très compréhensibles, et que moi-même, je ne comprends pas tout ce que racontent certains de mes semblables.

Et qu’est-ce que "comprendre" signifie ? Du point de vue étymologique, l’affaire est simple : c’est prendre ensemble, rassembler ou saisir plusieurs éléments en même temps. En philosophie, c’est la compréhension intellectuelle ou rationnelle d'un concept, d'une idée ou d'un phénomène, soit une forme de connaissance impliquant une réflexion profonde, une analyse critique et une interprétation du sens ; toutes caractéristiques qui semblent présentes concernant la réponse de la machine dans la citation ci-dessus. Alors, faut-il conserver le concept de "compréhension" cher à l’humain ou le jeter dans la poubelle de l’éliminativisme ? Cette IA "prédit" du point de vue statistique le mot qui doit suivre le précédent et le résultat a du sens pour un humain : furieusement étonnant, non ? 
Comme des spécialistes nous le disent depuis des années, c’est à se demander si nos "algorithmes" cérébraux ne fonctionnent pas de façon similaire. 
De fait, l’analogie avec le cerveau n’est pas aberrante puisque c’est le modèle pris par les développeurs : nos neurones sont des unités qui sont au repos (0) ou s’activent (1) pour passer une information électrique (puis chimique) aux neurones connectés en réseau. En informatique, un réseau de neurones est composé de nœuds interconnectés en couches : le courant passe (1) ou ne passe pas (0). Étranges similitudes. 
Mais rassurons tout de suite : le cerveau biologique reste bien plus performant que les processeurs, en tout cas dans certains domaines, et pour l'instant.

D'un point de vue philosophique, l'IA est un "zombie" comme défini par le philosophe David Chalmers dans The Conscious Mind (1996), soit une entité qui se comporte exactement comme un humain mais n'a pas d'expérience subjective ni de conscience. L'IA corresponds à cette description : elle peux répondre à des questions, simuler des émotions et raisonner, mais sans conscience ni de vécu intérieur. Et l'IA est maintenant capable de passer le test de Turing ! Ce test, proposé par le génial Alan Turing évalue si une machine peut imiter une conversation humaine de manière indistinguable d'un humain !! Un "zombie" IA  pourrait posséder toutes les caractéristiques d’un humain : réagir à la douleur, se plaindre d’une viande mal cuite, être en désaccord sur une certaine vision du monde - mais sans avoir pour autant la "conscience" de la douleur, du "ressenti" désagréable d'un pigment trop fort, de l’émotion générée lors d’un débat polémique etc. C’est-à-dire que ce zombie n’aurait pas de "conscience" telle que nous la définissons. Ce qui amènerait à penser qu’il existerait bien deux entité distinctes : le corps "matériel" d’une part, et la "conscience" d’autre part. Donc un  retour en arrière vers un dualisme cartésien bon teint qui, chassé par la porte, reviendrait par la fenêtre.

Je dois dire que je suis, comme d’autres[1], assez sceptique quant à l’intérêt d’une pareille hypothèse d’ailleurs à peu près abandonnée de nos jours[2]. Sceptique d’une part parce que si ce zombie possède toutes les caractéristiques de l’Humain, son apparence, son appétit, sa finesse de raisonnement, sa sensibilité, sa morale etc., il est alors impossible de distinguer ce zombie d’un "vrai" humain, test de Turing oblige... D’autant que si on l’interroge, ce zombie affirmera qu’il a bel et bien une conscience, qu’il est un humain comme les autres et qu’il ne comprend pas pourquoi on met sa parole en doute, et de quel droit etc. Qui pourrait donc affirmer que ce zombie ment ; et sur quels éléments nous dira l'avocat? En l’absence de preuves possibles allant dans ce sens, il nous faudrait bien le considérer comme un semblable, le respecter et lui donner les mêmes droits que les humains (?). Jusqu’à se demander si nous ne sommes pas entourés de zombies puisqu’il serait impossible de faire la différence entre eux et nous. D'ailleurs, comment puis-je être certain que vous n’êtes pas un zombie ? Il faudrait ouvrir et voir si l’intérieur est bien "biologique", et non un tas de processeurs.

Finalement, si l'on en revient au sujet du libre arbitre "ontologique", le zombie IA ne peut en posséder puisque chez lui tout est déterminé ; et pourtant cette IA propose des réponses imprévisibles et changeantes d'une fois sur l'autre, comme l'Humain (il n'y a que les imbéciles qui ne changent d'idée). L'IA ne semble pas n'être qu'un "perroquet stochastique" comme le souhaiteraient pas mal de philosophes.

Reste à montrer que l'Humain possède ce fameux libre arbitre ontologique, ce qui n'a jamais pu être démontré ; et pour cause (voir Libre Arbitre QUEZACO). 

La charge de la preuve, toujours...

[1] Comme Daniel Dennett, Nigel J. T. Thomas, David Braddon-Mitchell, Robert Kirk etc.

[2] Une enquête de 2013 auprès de philosophes professionnels a produit les résultats suivants : 35,6 % ont déclaré que les zombies étaient concevables mais pas métaphysiquement possibles; 23,3 % ont déclaré qu'ils étaient métaphysiquement possibles ; 16,0 % ont dit qu'ils étaient inconcevables ; et 25,1 % ont répondu "autre" - "What do philosophers believe?" - David Bourget et David Chalmers - 

_________________________________________________

Et pour aller plus loin, le livre "La dernière blessure" centré sur la notion du libre arbitre (illusoire)... en cliquant sur l'image ci-dessous