Wikipedia

Résultats de recherche

Traduction

Liberté d'expression

Dès le début du second mandat de Donald Trump, le fondateur de Meta, Mark Zuckerberg, annonçait qu'il voulait se débarrasser des fact-checkeurs qu'il rémunérait pour vérifier les informations sur ses réseaux sociaux Facebook, Instagram et Thread, ceci au nom de la liberté d'expression. Depuis, le débat n'en finit plus pour savoir si diffuser de fausses informations est un droit garanti par la liberté d'expression... ou non.

La députée européenne Renew Valérie Hayer a estimé que la liberté d'expression "n'est pas, et ne sera jamais, la liberté de propager des fausses informations".

Ce à quoi Louis Sarkozy, essayiste, polémiste et fils de l'ancien président Nicolas Sarkozy, a répondu que "la liberté d'expression implique précisément le droit de diffuser de fausses informations".

Et en effet, certains philosophes pensent comme lui. Louis Sarkozy cite notamment John Milton, poète anglais du XVIIe siècle qui voulait que vérité et erreur se livrent un combat à la loyale. Ou encore John Stuart Mill, penseur anglais du XIXe siècle qui a une vision maximaliste, quasi absolue, de la liberté d'expression.

Ce dernier part du principe que tout le monde peut se tromper, que personne n'est infaillible (pas faux), et que par conséquent empêcher quelqu'un de dire quelque chose de faux revient à penser que, soi-même, on ne peut pas se tromper. Le philosophe estime que la confrontation des idées permettra de faire émerger la vérité. La seule limite qu'il posait à sa vision de la liberté d'expression était les propos qui incitaient directement à commettre un "méfait" envers quelqu'un, soit des dommages "concrets".

Le seul problème est que des propos haineux, racistes, discriminatoires... préparent des "méfaits" à un moment ou à un autre pour des cerveaux moins "philosophiques" que celui de John Stuart Mill.

Soit la vérité qui sort du puits après quelques centaines / milliers / millions de cadavres ?

Contrairement à ce que pensait John Stuart Mill, rien ne garantit une victoire de la vérité.

Mais cette conception maximaliste, très influente dans le monde anglosaxon - à laquelle semble adhérer Mark Zuckerberg et un grand nombre de ses compatriotes -, ne fait pas consensus parmi tous les philosophes. Les adeptes de la vision de John Stuart Mill ont commencé à se faire rares après la Seconde Guerre mondiale et la Shoah.

Ainsi, le philosophe américain du XXe siècle Jérémy Waldron propose une compréhension plus large de la notion de préjudice. Il estime, par exemple, que les discours de haine sont de véritables atteintes à la citoyenneté, et qu'il s'agit là d'une limite à la liberté d'expression. Certaines fausses informations peuvent entrer dans cette catégorie. Par exemple, l'antisémitisme qui a conduit à la Shoah a été alimenté notamment par de nombreuses fausses "informations" visant les Juifs (Les Protocoles des Sages de Sion...).

Aujourd'hui, des philosophes s'intéressent plutôt au débat inverse. Pour eux, la question n'est plus de savoir si la liberté d'expression permet de dire de fausses nouvelles, mais de savoir si la diffusion massive de fausses informations n'est pas une atteinte à la liberté d'expression, car ces infox se nichent dans nos idées, dans nos croyances, qu'on le veuille ou non. C'est la théorie de Neil Levy, un professeur de philosophie australien.

En confrontant ces philosophes, on voit à quel point le débat philosophique n'est ni terminé, ni tranché, car tout dépend de l'état de la culture morale et philosophique du pays, du moment. Oui au "blasphème" (caricatures de "Prophètes") dans le cadre de la laïcité en France, mais non aux discours de haine (racisme, antisémitisme etc.).

Ainsi, en France, diffuser de fausses informations d'une grande ampleur est illégal depuis 140 ans. L'article 27 de la loi du 29 juillet 1881 prévoit que "la publication, la diffusion ou la reproduction, par quelque moyen que ce soit, de nouvelles fausses, de pièces fabriquées, falsifiées ou mensongèrement attribuées à des tiers lorsque, faite de mauvaise foi, quand elle aura troublé la paix publique, ou aura été susceptible de la troubler, sera punie d'une amende de 45 000 euros". L'amende monte même à 135.000 euros lorsque l'infox risque d'entraver un effort de guerre.

Il est aussi possible de déposer plainte pour diffamation lorsqu'une fausse information atteint notre vie privée. C'est ce qu'a fait Brigitte Macron en déposant plainte pour diffamation contre les personnes qui ont lancé la fausse information selon laquelle elle sera une femme trans et que son identité de naissance serait Jean-Michel Trogneux, soit l'identité de son frère (!).

Cette législation a été renforcée en 2018, avec l'adoption de la loi anti-fake-news. Elle permet à un juge, dans les trois mois avant une élection, de faire cesser la diffusion "d'allégations ou imputations inexactes ou trompeuses d'un fait de nature à altérer la sincérité du scrutin à venir (…) diffusées de manière délibérée, artificielle ou automatisée et massive par le biais d'un service de communication au public en ligne".

Dans une décision rendue la même année, le Conseil constitutionnel a précisé que "ces allégations ne recouvrent ni les opinions, ni les parodies, ni les inexactitudes partielles ou les simples exagérations. Elles sont celles dont il est possible de démontrer la fausseté de manière objective. [...] Seule la diffusion de telles allégations ou imputations répondant à trois conditions cumulatives peut être mise en cause : elle doit être artificielle ou automatisée, massive et délibérée".

Si vous avez une petite heure devant vous : « On ne peut plus rien dire » : les réactionnaires kidnappent la liberté d’expression.

Finalement, la liberté d'expression est, comme la liberté en général, un mot valise, à géométrie variable, dont on se sert en fonction de sa propre idéologie.

 ____________________________________

Et pour aller plus loin, le livre "La dernière blessure" centré sur la notion du libre arbitre (illusoire)... en cliquant sur l'image ci-dessous

Qui mérite quoi ?

La vision matérialiste / naturaliste qui irrigue ce blog se base sur un déterministe "dur" (strict) qui considère que tous les événements, y compris les actions humaines, sont entièrement déterminés par des causes antérieures (génétiques, sociales, économiques) plutôt que de choix "libres", suivant en cela les lois naturelles immuables. Ce qui implique l'absence de libre arbitre ontologique (métaphysique), car chaque choix ou action est inévitablement le résultat de conditions préalables. 

N.B : Pour le concept étrange de déterminisme "mou" (compatibilisme) : voir Dennet et le compatibilisme.

Dans une vision matérialiste / naturaliste comprenant un déterministe "dur" chaotique, la place du mérite et du talent, du salaire, de la prise en compte des études, de la pénibilité et de la valeur sociale du travail etc. est profondément influencée par l’idée que les comportements et les conditions humaines sont le résultat de causes extérieures (génétiques, sociales, économiques) plutôt que de choix libres. Détaillons.

Mérite (méritocratie) et Talent ils ne sont pas considérés comme des qualités librement développées par l’individu, mais comme des produits de déterminants extérieurs sur lesquels l'individu n’a que peu (ou pas) de contrôle. Les efforts et les réussites d’une personne sont vus comme le résultat de facteurs tels que la génétique, l’environnement familial ou les conditions socio-économiques. C'est ce que nous dit le philosophe Baruch Spinoza (Éthique) qui soutient que tout ce qui arrive dans l’univers, y compris les actions humaines, découle d’une nécessité inhérente à la nature (lois qui s'appliquent à tout ce qui existe). 
Karl Marx (Le Capital) met en lumière comment les opportunités et les compétences sont façonnées par les conditions matérielles et sociales, suggérant que ce qu’on appelle "mérite" est souvent une illusion masquant des inégalités structurelles. 
C'est ce que précise également Samah Karaki, docteure en neurosciences, pour qui le talent est une fiction :

Il y aurait "mérite" à faire... ce que l'on ne peut pas faire ? Si l'on fait, c'est qu'on le pouvait, car on ne peut pas faire autrement que ce que l'on fait sauf à accueillir de nouveaux déterminants (encouragements / rencontres / lectures / études / émotions / expériences variées etc). Voir "Peut-on faire autrement ?").

Salaire : il ne reflète pas nécessairement le mérite ou le talent individuel, mais plutôt la valeur de la force de travail dans un système économique donné, souvent marqué par l’exploitation. Karl Marx (Le Capital) développe la théorie de la plus-value : le salaire correspond au coût de reproduction de la force de travail (nourriture, logement, éducation), mais le travailleur produit une valeur supérieure, dont une partie est appropriée par le capitaliste sous forme de profit. Le salaire est donc déterminé par les conditions du marché et non par une reconnaissance équitable de l’effort ou du talent. Le salaire est un mécanisme économique plutôt qu’une récompense morale ou individuelle. Si les plus-values étaient "honnêtement" redistribuées, aucune fortune colossale ne pourrait se constituer.

Etudes : le plus souvent perçues comme un moyen d’ascension sociale ou de développement du mérite, elles sont dans cette vision matérialiste elles-mêmes déterminées par des facteurs sociaux et matériels. L’accès à l’éducation et la réussite scolaire dépendent largement des conditions socio-économiques, familiales et culturelles, ce qui limite leur rôle comme facteur d’équité ou de reconnaissance individuelle. Pierre Bourdieu (La Reproduction ; La Distinction) montre que le système éducatif reproduit les inégalités sociales en favorisant ceux qui possèdent déjà un capital culturel et social. Les études ne sont pas un terrain neutre de mérite, mais un outil de perpétuation des hiérarchies. Louis Althusser (Idéologie et appareils idéologiques d’État) décrit l’école comme un "appareil idéologique d’État" qui sert à maintenir les rapports de production existants, alignant les compétences des individus sur les besoins du système capitaliste. Les études, loin d’être un choix libre ou un gage de talent, sont ainsi un reflet des structures déterministes de la société. Devoir être le matin à l'hôpital en tant qu'étudiant "externe", l'après-midi en cours de fac de médecine et le soir à son poste de travail pour survivre : une excellente façon de rater ses études avec tout ce que cela entraîne de frustrations par la suite. Même dans ces situations difficiles, réussir n'est pas une affaire de "mérite" mais de facteurs déterminants comme par exemple vouloir faire plaisir à ses parents (déterminants affectifs), avoir la "chance" de mémoriser facilement etc. On peut très bien commencer pour faire plaisir en étant surpris d'y prendre plaisir personnellement par la suite. C'est la fameuse blague de l'étudiant qui a fait médecine pour faire plaisir à sa maman et qui a continué par la psychiatrie ... Car on ne peut pas toujours faire plaisir à sa maman !

Pénibilité du travail : elle est un aspect central dans une vision matérialiste, car elle est directement liée aux conditions matérielles de production. Cependant, elle est trop souvent perçue comme une conséquence inévitable des exigences du système économique plutôt que comme un critère qui devrait être récompensé et reconnu par la société. Friedrich Engels (La Situation de la classe laborieuse en Angleterre) documente les conditions de travail épuisantes et leurs effets délétères sur les ouvriers, soulignant que la pénibilité est imposée par les impératifs de la production industrielle. Michel Foucault (Surveiller et punir) analyse comment les institutions, y compris les lieux de travail, disciplinent les corps pour répondre aux besoins du système, rendant la pénibilité à la fois omniprésente et normalisée. La pénibilité est donc un effet structurel, non une variable librement ajustée en fonction du mérite ou de la justice. Dans certaines professions, la durée de vie est nettement moindre du fait de cette pénibilité et/ou des dangers encourus : ne doit-on pas en tenir compte à la fois dans la rémunération et l'âge de départ à la retraite ?

Valeur sociale du travail : dans une vision matérialiste déterministe, la valeur sociale du travail – son utilité pour la collectivité – est souvent en tension avec sa valeur marchande qui domine dans un système capitaliste. Les contributions sociales d’un travail (enseignement, soins) ne sont pas nécessairement reconnues à leur juste mesure si elles ne génèrent pas de profit immédiat. Karl Marx (Critique du programme de Gotha) envisage une société où la distribution serait basée sur le travail et ses apports sociaux mais constate que, dans le capitalisme, la valeur marchande l’emporte sur la valeur sociale. Le Prix Nobel d'économie Amartya Sen, bien qu’il ne soit pas strictement matérialiste, propose une réflexion sur la justice sociale qui pourrait enrichir cette distinction valeur marchande / valeur sociale, en plaidant pour une reconnaissance des contributions de chacun au-delà de la dimension marchande. 
En fait, la valeur sociale du travail est éclipsée par les déterminants économiques du marché : on a pu le constater lors de la pandémie COVID avec la promesse de revaloriser les statuts de ceux qui nous ont aidé à survivre et l'espérance d'un monde futur qui changerait... Promesse non tenue.

Prenons un exemple simple concernant la répartition des ressources (salaires / revenus...) : selon une étude chez des enfants de trois/quatre ans, ceux-ci considèrent que ceux qui ont fait le plus d’effort dans la préparation d’un gâteau ont droit à un plus gros morceau ! 

Que la répartition du gâteau soit proportionnelle au travail effectué est une excellente chose. C’est juste et cohérent. Mais dans cette expérience, tous les enfants sont à égalité de départ. A l'inverse, imaginons que l’un d’entre eux ait amené la recette du gâteau (donnée par sa mère), et qu’il considère à ce titre qu’il a droit à la moitié du gâteau, sans rien faire d’autre que de sortir de sa poche la recette, bien culturel s’il en est. Certes, sans recette, pas de gâteau. Mais sans les deux autres "laborieux" qui pâtissent, pas de gâteau non plus. Avec sa recette, le gamin veut profiter indûment de son « héritage culturel » parental au détriment de ceux qui ont pâtissé, et qui en pâtissent effectivement. Il s’agit bien de « méritocratie » plutôt que le simple mérite qui, au sens d’un effort particulier, est légitime et nécessite la reconnaissance de la société d’une manière ou l’autre. Mais cette"méritocratie" d'héritage culturel / financier etc.- que l'on associe indûment à une meilleure qualité de libre arbitre - me fait toujours penser à la description de Nietzsche où le baron de Crac se prend lui-même par les cheveux pour se sauver, ainsi que son cheval, d'une noyade certaine. La méritocratie est un concept tiré par les cheveux...

Amartya Sen[1], spécialiste de l’économie du développement et du bien-être, propose la parabole suivante à propos du partage d'une flûte :
1) Carla affirme que la flûte lui revient car c’est elle qui l'a fabriquée ;
2) Anne considère que la flûte lui appartient car elle est la seule à savoir en jouer ;
3) Bob veut également la flûte parce qu’il est pauvre et ne possède aucun jouet.

Dans les trois situations, les revendications semblent apparemment légitimes. Selon Sen, cet exemple illustre trois théories dominantes de la justice - libertarienne (Carla), utilitariste (Anne) et égalitariste (Bob) - et démontre pour lui la pluralité des conceptions de la justice. Amartya Sen en déduit qu’il est donc illusoire de vouloir - comme le propose le philosophe libéral égalitariste John Rawls avec son "voile d'ignorance" - développer une conception unique, universelle garantissant l'unanimité pour la prise de chaque décision. Mais dans la parabole de Sen, tout se passe comme si chacun trônait sur son île déserte. Or, sauf rare exception, nous vivons en société. Convenons que l’un des intérêts de cette micro société regroupant Carla, Anne et Bob est de pouvoir écouter de la musique, ce qui profiterait à tous, alors que chacun dans son coin ne peut obtenir ce résultat. C’est un élément essentiel de la parabole que la formulation de Sen semble oublier.

Reprenons plus en détail les éléments de cette parabole :

1) « Carla affirme que la flûte lui revient car c’est elle qui l'a fabriquée ». Il fallait donc que Carla ait en sa possession un morceau de bois. Qui vient d’où ? D’un bois trouvé dans la nature ? Alors Bob et Anne sont en théorie autant propriétaire de ce bois - un « bien commun » - que ne l’est Carla. Dans ce cas, Bob et Anne sont a minima contributeurs de la fabrication de la flûte. Si à l’inverse, Carla était propriétaire de ce bois par héritage, ce n’est que par l’effet des bonnes fées et elle n’en a aucun « mérite ». Si enfin, elle a gagné ce bout de bois « à la sueur de son front », cela confère à Carla un certain « mérite » du fait des efforts accomplis... sachant que ceux-ci sont le produit de déterminants antérieurs. Idem en ce qui concerne le « savoir-faire » pour sculpter la flûte (héritage culturel ? don personnel déterminé ?...). En conclusion, Carla a sans conteste une fonction non négligeable dans la production musicale, à condition de trouver un accord avec notamment Anne qui est la seule à pouvoir concrétiser le projet.

2) « Anne considère que la flûte lui appartient car elle est la seule à savoir en jouer » : savoir jouer de la flûte revient au cas précédent où Carla sait comment fabriquer l’instrument. Dans les deux cas, il s’agit d’un héritage culturel ou d’un « talent » des bonnes fées, plus du travail d’où un certain « mérite » qu’il faut encourager mais ne la rend pas propriétaire unique de la flûte pour autant.

3) « Bob veut également la flûte parce qu’il est pauvre et ne possède aucun jouet » : le pauvre Bob n’a vu que des sorcières penchées sur son berceau, ce qu'il n'a pas choisi "librement", mais souhaite tout de même écouter de la musique, mélomane déterminé qu’il est. En usant d’une justice équitable, on pourrait imaginer que Carla et Anne se substituent a posteriori aux sorcières en partageant leur savoir-faire afin que Bob fabrique un jour une flûte et puisse éventuellement en jouer dans l’intérêt commun. Sans compter que cette « position » philosophique empathique permettrait à Carla et Anne de partager entre elles leur savoir-faire et ainsi constituer, pourquoi pas, un trio pour jouer Beethoven


Equité et coopération sont les deux faces d’une même pièce.

Et en pratique ?

« Le travail est social par nature » comme le précise l’agrégé et docteur en philosophie Jean-Michel Muglioni :

« Quelle conséquence tirer de la nature sociale du travail ? Il n’est pas choquant « qu’en France on travaille un jour sur deux pour l’État », mais il est choquant que les plus hauts salaires ou les plus hauts revenus contribuent au bien commun proportionnellement moins que les plus bas, c’est-à-dire qu’une trop grande part des produits de leur travail ou du capital soit réservée à leur enrichissement personnel, au détriment de la société. On le voit, le député choqué par le poids des impôts et des charges a oublié le sens du travail : il croit que le travail a pour finalité l’enrichissement personnel. »

Faut-il rémunérer le travail 50, 100, 600 fois plus que le salaire « de base » du fait d’une meilleure « performance » sociale ou économique éventuelle ? Sachant que les plus grandes inégalités proviennent des différences de patrimoines, ne faut-il pas taxer plus fortement les patrimoines monstrueux accumulés d'une génération sur l'autre sous le prétexte fallacieux de "mérite" ou de "talent"  ?

Eric Lombard, qui n’est pas issu de la gauche la plus radicale mais plutôt un ancien patron de la BNP et Ministre de l'Économie en France (2025), dénonce des salaires trop bas par rapport aux revenus du capital.

« Je pense que le capitalisme est déréglé et que la répartition des richesses est trop divergente par rapport à ce qui revient au capital. Depuis 20 ans, il y a trop de revenus qui sont reliés au capital et pas assez au travail. Les rendements de plus en plus élevés exigés par les investisseurs se font au détriment des salariés. »

Soit l'inverse de la belle tendance ultralibérale autocratique actuelle (Trump etc.) qui va dans le mur... et nous avec si l'on ne réagit pas. 

On le mérite ???

[1] « L’idée de Justice » - 2012 - Flammarion

_______________________________________________

Et pour aller plus loin, le livre "La dernière blessure" centré sur la notion du libre arbitre (illusoire)... en cliquant sur l'image ci-dessous


Voilà une question qu'elle est bonne !

Un article du neurobiologiste Charles Capaday (2025) pose une excellente question de fond :

"Les trois idées principales sur la relation entre le cerveau et l'esprit, le dualisme cartésien, l'épiphénoménisme et la théorie de l'identité cerveau-esprit, sont examinées de manière critique. Aucune de ces idées, ni leurs nombreuses variantes, ne repose sur des mécanismes biologiques ou physiques explicites et la question n'est donc pas de nature scientifique (...) L'éminent physicien du XIXe siècle, John Tyndall, a fait valoir en 1868 devant la Section mathématique et physique de la British Association que, par exemple, si l'on découvrait que l'amour était associé à une rotation vers la droite d'une molécule donnée et la haine à une rotation vers la gauche de cette même molécule, alors la question « pourquoi éprouvons-nous ces sentiments » resterait sans réponse."

"Pourquoi éprouvons-nous des sentiments". Excellente question !

Il conclut :

"Des progrès très importants seraient réalisés si jamais des liens de causalité entre conscience et activités cérébrales étaient découverts. Cela résoudrait le prétendu "problème difficile de la conscience". Mais nous en sommes très loin. Le problème difficile demeurera et (...)  je le pense insoluble."

Sur le même fil, le philosophe David Chalmers parle également du "problème difficile de la conscience" (Hard problem of consciousness) du fait du contenu subjectif de l'expérience consciente (expériences phénoménales "subjectives" ou qualia).

Lui et quelques autres affirment que la conscience constitue un problème "spécial", comportant un caractère distinct des autres problèmes en science. La conscience ferait exception, et elle seule, à une thèse naturaliste de la conscience en occupant "un espace ontologique à part". Globalement, cette position antimatérialiste postule que l'expérience consciente doit comporter un aspect immatériel (surnaturel ?). Ce qui est troublant, c'est que Chalmers présente un trouble (non pathologique) dans lequel deux sens, voire plus, sont associés : la synesthésie, soit une sorte de confusion des sens, pour être bref. Serait-ce un déterminant génétique - non choisi librement - formant motif pour s'intéresser plus spécifiquement à cette question des qualia ?

Vous avez deux heures.

Parfait ! Nous pouvons reprendre la question du jour et cette quale (singulier de qualia) : "pourquoi" la section d'un doigt fait-elle subjectivement "mal" ?

________________________________

N.B : on connait déjà la réponse au "comment" : c'est le circuit de la douleur (lésions tissulaires / récepteurs sensoriels etc. jusqu'au cerveau avec réponse motrice éventuelle qui d'ailleurs peut rester au niveau médullaire dans le cadre des "réflexes". 

______________________________________

 Reste le "pourquoi" ça fait "mal" ?

On pourrait déjà remarquer que la question du pourquoi est inadaptée concernant la science pour laquelle nulle "intention" spiritualiste n'est légitime.  Passons !

La description fine de l'irruption de la sensation subjective de douleur est actuellement inconnue du point de vue scientifique. Les neurosciences modernes peuvent décrire avec précision les corrélats biologiques des émotions - par exemple, les activations neuronales ou les réactions chimiques dans le cerveau - mais elles restent muettes sur l’origine de la sensation consciente elle-même.

Mais prenons le cas où ça ne fait pas mal... alors qu'objectivement ça le devrait !

Soit un gamin de quatre ans présentant des anomalies dans le circuit de la douleur (cas réel). Ce gamin a eu le doigt coupé par accident mais ne "ressent" pas la douleur du fait de son insensibilité congénitale à la douleur. Le chirurgien lui donne une sucette après l'intervention pour le féliciter de son courage (?). Le gamin se recoupe le doigt par la suite pour obtenir une nouvelle sucette ! Où l'on voit qu'il ne faut pas donner de sucettes aux enfants.

En fait, l’absence de douleur peut entraîner des blessures fréquentes, plus ou moins graves, notamment aux extrémités (doigts, orteils) car les signaux d’alerte normaux sont absents. 

On commence à voir en quoi cette "sensation" de douleur qui fait "mal",  issue de l'évolution dans la conception matérialiste évolutionniste, est une garantie (imparfaite) de la survie au même titre que toutes les sensations diverses (vue / odorat / toucher...), et les émotions (amour / peur / jalousie / haine... et autres passions, joyeuses comme tristes). Toutes ces sensations et qualia - dont la sensation du libre arbitre - sont au service à des degrés divers de la survie à tout prix (voir L'humain : un "robot" biologique ?). Un humain génétiquement sourd, aveugle, sans odorat etc. a peu de chance de survie du côté de nos ancêtres. Il ne se reproduira pas.

Finalement, la conception immatérielle de la conscience et des qualia façon Chalmers est très, très, très loin de fairel’unanimité chez les philosophes, et moins encore chez les scientifiques. J’ai bien peur que ce ne soit qu’une façon peut-être naïve, voire délibérément spiritualiste, de réintroduire par la fenêtre la dualité cartésienne corps/esprit.

Ce que le Pr de psychologie et neurosciences MichaelGraziano résume ainsi :

"La croyance en une composante non matérialiste de l’esprit est un fragment persistant d’un groupe plus large de croyances psychologiques populaires incorrectes et culturellement répandues... qui dérivent de modèles sociocognitifs implicites, qui ont infiltré la science de la conscience en perpétuant des hypothèses erronées."

Chassez le surnaturel, il reviendra au galop !

_________________________________________________

Et pour aller plus loin, le livre "La dernière blessure" centré sur la notion du libre arbitre (illusoire)... en cliquant sur l'image ci-dessous

Eliminons ?

L’éliminativisme est une position en philosophie de l’esprit qui rejette l’existence des états mentaux comme les croyances ou les désirs, les considérant comme des concepts erronés de la "psychologie populaire".

Cette théorie, défendue par des philosophes comme Paul et Patricia Churchland, s’appuie sur les neurosciences pour remplacer ces concepts par des explications neurobiologiques.

L’éliminativisme, ou matérialisme éliminativiste, soutient que les états mentaux tels que les croyances, les désirs, les émotions ou les intentions – concepts centraux de la "psychologie populaire" – n’existent pas réellement. 

La psychologie populaire est le cadre intuitif que nous utilisons pour expliquer et prédire le comportement humain (ex. : "il est parti parce qu’il était en colère"). Selon les éliminativistes, ce cadre est une théorie naïve et erronée, comparable à des concepts scientifiques obsolètes comme le phlogiston (une substance hypothétique censée expliquer la combustion au XVIIIe siècle) ou encore l’alchimie qui a été éliminée au profit de meilleures explications. Avec les neuroscience notamment, la boîte à outils scientifique s'est améliorée (ne pas se tromper : c'est celle de droite). Il serait peut-être temps d'en tenir un peu compte.

Les Churchland soutiennent que les états mentaux ne correspondent pas à des entités réelles, mais à des processus neuronaux complexes. Par exemple, une croyance comme "je pense que le soleil est chaud" serait mieux décrite comme un ensemble d’activations dans des réseaux neuronaux spécifiques, sans référence à une "croyance" comme entité distincte.

Les Churchland considèrent que la psychologie populaire est une théorie stagnante qui n’a pas évolué depuis des siècles et qui échoue à expliquer des phénomènes complexes comme les troubles mentaux ou les processus inconscients. 

Les découvertes en neurosciences, comme la cartographie des réseaux neuronaux impliqués dans la prise de décision ou les émotions, suggèrent que nous pouvons expliquer le comportement humain sans recourir aux concepts de la psychologie populaire. Une étude (Neural substrates of decision-makingmontre que des processus comme la "décision" sont le résultat d’interactions entre différentes régions cérébrales, sans qu’il soit nécessaire de postuler des "désirs" ou des "intentionsLes éliminativistes proposent donc de remplacer complètement les termes de la psychologie populaire par un langage neuroscientifique : au lieu de dire "je suis triste", on parlerait d'une activité accrue dans l’amygdale et une diminution de la sérotonine !

Plusieurs objections ont été soulevées : des philosophes comme Daniel Dennett critiquent l’éliminativisme pour son rejet des qualia (expériences subjectives, comme le ressenti de la douleur). Même si les neurosciences peuvent décrire les processus cérébraux, elles ne capturent pas l’expérience vécue, qui semble réelle et significative pour les individus. 
De son coté, le philosophe Jerry Fodor considère que la psychologie populaire, bien qu’imparfaite, est extrêmement utile pour prédire et comprendre le comportement humain dans la vie quotidienne. Par exemple, dire "il a agi par jalousie" est une explication rapide et efficace, même si elle n’est pas neuroscientifiquement précisée. 
Enfin, une critique pratique est que nous n’avons pas encore un langage neuroscientifique suffisamment développé pour remplacer la psychologie populaire. Éliminer ces concepts dès maintenant pourrait rendre la communication et la compréhension du comportement humain difficiles.

Finalement, l’éliminativisme est une proposition intéressante dans la mesure où il s’aligne avec une vision matérialiste : tout peut être réduit à des processus physiques, comme le sont les "calculs" dans l'IA. Les neurosciences soutiennent que les états mentaux sont corrélés à des processus cérébraux, comme le montrent des études sur la décision ou les émotions. 

Cependant, les qualia de la psychologie populaire pour les humains offrent un cadre simple et intuitif pour interagir socialement

L’éliminativisme pourrait être une direction future, mais il semble prématuré tant que les neurosciences n’offrent pas une alternative "pratique".

En tout cas, cette théorie soulève des questions profondes sur la nature de l’esprit et sur la manière dont nous devrions décrire le comportement humain à l’avenir.

_________________________________________________

Et pour aller plus loin, le livre "La dernière blessure" centré sur la notion du libre arbitre (illusoire)... en cliquant sur l'image ci-dessous

Pourquoi l’IA est-elle haïe ?

L'intelligence artificielle (IA) a créé un véritable tsunami cognitif qui nous est arrivé de plein fouet fin 2022. 

Comme tout nouvel "outil" potentiellement délétère dont l'usage pourrait se retrouver en de mauvaises mains, l'IA est redoutée comme... le couteau, la poudre, la fission atomique etc., en leur temps. Rien de nouveau sous le soleil donc. L'affaire est entendue : l'IA pourrait faire des dégâts humains considérables (perte d'emplois, surveillance de masse, renforcement des inégalités, fin de l'humanité pour certains), mais son développement est inéluctable tant les bénéfices attendus sont extraordinaires dans tous les domaines. Et il faut des garde-fous, c'est certain.

Une autre façon de haïr l'IA est de "jalouser" son efficacité "intellectuelle", ses connaissances gigantesques qu'aucun humain ne pourrait acquérir et sa rapidité d'exécution qui laisse pantois. 

Bref, l'IA comme super humain en comparaison duquel nous nous sentons "déclassés". Il y a pourtant bien longtemps que la machine nous dépasse en rapidité, force, précision etc. Mais là, on touche aux connaissances, à la culture, à l'intelligence... et c'est insupportable ? Un léger bobo, une petite crise de croissance qui va passer. Et si nous cultivions un peu plus l'humilité ? 

Passons. Car ce à quoi je veux en venir ici n'a pas grand chose à voir avec ce préambule. Mais avant d'aborder le vif du sujet, il n'est pas inutile de voir comment cette IA se construit comme le montre finement cette vidéo. Notez au passage toutes les analogies énoncées ci-dessous entre le fonctionnement de la machine et celui de l'humain... On en reparle.

Notons tout d'abord que l'IA n'est pas surnaturelle mais simplement artificielle en référence à ce qui est produit par le travail, l'habileté ou l'ingéniosité de l'homme, et non par la nature elle-même. Il s'agit de quelque chose de fabriqué, fait de toutes pièces, imitant plus ou moins la nature. Les lois de la nature opèrent donc ici totalement, et il n'est pas possible de prêter à une machine l'ombre d'un libre arbitre (LA) quelconque.

Pourtant, le grand neuroscientifique Stanislas Dehaene parle d’une...

"machine capable de pondérer les informations et qui dispose d’une sorte de libre arbitre"

 Sur le fond, que veut dire une « sorte » de Libre Arbitre ? Il semble que le LA soit décrit ici comme le calcul de la délibération (cerveau bayésien et/ou cerveau statisticien), ce qui contraste avec la définition habituelle, classique, d'un LA qui « surplombe » les déterminants. Par ailleurs, si la machine possède un LA - ou une "sorte" de LA -, ce dernier ne serait plus l’apanage exclusif de l’Humain ? On serait en droit de traduire ces machines en justice (ou une "sorte" de justice - pour rester cohérent) dès lors qu’elles nous trahissent ; car les machines nous trahissent, comme chacun a pu le constater, ce qui est fort heureux pour les garagistes. 

Reste à savoir ce que serait cette "sorte" de justice décidant d’une "sorte" de peine du fait d’une "sorte" de LA. Retour vers les procès des animaux, et bientôt des machines ? Mais pourquoi donc conférer une "sorte de LA" à la machine plutôt que de convenir - ce qui semble bien plus rationnel - que le LA n’existe "réellement" ni pour la machine, ni pour l’animal, ni pour l’animal-humain. 

Comme abordé dans la vidéo :

  • La machine calcule "statistiquement" le mot qui doit venir après le précédent, comme un humain qui finit la phrase de la grand-mère cherchant ses mots ;
  • La machine peut se tromper, comme l'Humain ;
  • La machine a reçu une éducation plus ou moins poussée, comme l'Humain... avec "encadrement" afin d'éviter les dérives possibles, comme l'Humain... sans omettre de lui offrir quelques "récompenses" pour renforcer son éducation, comme l'Humain ;
  • La machine peut maintenant "raisonner" comme l'Humain ;
  • La réponse de la machine est imprévisible, comme celle d'un Humain ;
  • La machine peut se décliner en multiples "personnalités", comme l'Humain. Ainsi, Grok n'est pas Gemini qui n'est pas Mistral, qui n'est pas ChatGPT, qui n'est pas DeepSeek, qui n'est pas Copilot, qui n'est pas vous, qui n'est pas moi... 
Comme le précise dans "Parole de machines" Alexei Grinbaum (2023 - humenSciences - p.145) :

« Cette créativité extraordinaire, non humaine mais proche de la nôtre, n’a pas été programmée explicitement : elle est le fruit inattendu d’un apprentissage suffisamment riche et suffisamment complexe, qui donne à la machine une capacité, émergeante et surprenante, de ne pas répéter bêtement les phrases de son corpus d’apprentissage mais de les imiter tout en innovant... »
Il ne manque - dit-on - que la parole aux animaux, alors qu'il ne manque que les expériences sensibles aux ordinateurs et à l'IA en particulier. Pour l'instant.
On dit qu’elle ne "comprend" pas ce qu’elle raconte alors même que ses réponses sont le plus souvent très compréhensibles, et que moi-même, je ne comprends pas tout ce que racontent certains de mes semblables.

Et qu’est-ce que "comprendre" signifie ? Du point de vue étymologique, l’affaire est simple : c’est prendre ensemble, rassembler ou saisir plusieurs éléments en même temps. En philosophie, c’est la compréhension intellectuelle ou rationnelle d'un concept, d'une idée ou d'un phénomène, soit une forme de connaissance impliquant une réflexion profonde, une analyse critique et une interprétation du sens ; toutes caractéristiques qui semblent présentes concernant la réponse de la machine dans la citation ci-dessus. Alors, faut-il conserver le concept de "compréhension" cher à l’humain ou le jeter dans la poubelle de l’éliminativisme ? Cette IA "prédit" du point de vue statistique le mot qui doit suivre le précédent et le résultat a du sens pour un humain : furieusement étonnant, non ? 
Comme des spécialistes nous le disent depuis des années, c’est à se demander si nos "algorithmes" cérébraux ne fonctionnent pas de façon similaire. 
De fait, l’analogie avec le cerveau n’est pas aberrante puisque c’est le modèle pris par les développeurs : nos neurones sont des unités qui sont au repos (0) ou s’activent (1) pour passer une information électrique (puis chimique) aux neurones connectés en réseau. En informatique, un réseau de neurones est composé de nœuds interconnectés en couches : le courant passe (1) ou ne passe pas (0). Étranges similitudes. 
Mais rassurons tout de suite : le cerveau biologique reste bien plus performant que les processeurs, en tout cas dans certains domaines, et pour l'instant.

D'un point de vue philosophique, l'IA est un "zombie" comme défini par le philosophe David Chalmers dans The Conscious Mind (1996), soit une entité qui se comporte exactement comme un humain mais n'a pas d'expérience subjective ni de conscience. L'IA corresponds à cette description : elle peux répondre à des questions, simuler des émotions et raisonner, mais sans conscience ni de vécu intérieur. Et l'IA est maintenant capable de passer le test de Turing ! Ce test, proposé par le génial Alan Turing évalue si une machine peut imiter une conversation humaine de manière indistinguable d'un humain !! Un "zombie" IA  pourrait posséder toutes les caractéristiques d’un humain : réagir à la douleur, se plaindre d’une viande mal cuite, être en désaccord sur une certaine vision du monde - mais sans avoir pour autant la "conscience" de la douleur, du "ressenti" désagréable d'un pigment trop fort, de l’émotion générée lors d’un débat polémique etc. C’est-à-dire que ce zombie n’aurait pas de "conscience" telle que nous la définissons. Ce qui amènerait à penser qu’il existerait bien deux entité distinctes : le corps "matériel" d’une part, et la "conscience" d’autre part. Donc un  retour en arrière vers un dualisme cartésien bon teint qui, chassé par la porte, reviendrait par la fenêtre.

Je dois dire que je suis, comme d’autres[1], assez sceptique quant à l’intérêt d’une pareille hypothèse d’ailleurs à peu près abandonnée de nos jours[2]. Sceptique d’une part parce que si ce zombie possède toutes les caractéristiques de l’Humain, son apparence, son appétit, sa finesse de raisonnement, sa sensibilité, sa morale etc., il est alors impossible de distinguer ce zombie d’un "vrai" humain, test de Turing oblige... D’autant que si on l’interroge, ce zombie affirmera qu’il a bel et bien une conscience, qu’il est un humain comme les autres et qu’il ne comprend pas pourquoi on met sa parole en doute, et de quel droit etc. Qui pourrait donc affirmer que ce zombie ment ; et sur quels éléments nous dira l'avocat? En l’absence de preuves possibles allant dans ce sens, il nous faudrait bien le considérer comme un semblable, le respecter et lui donner les mêmes droits que les humains (?). Jusqu’à se demander si nous ne sommes pas entourés de zombies puisqu’il serait impossible de faire la différence entre eux et nous. D'ailleurs, comment puis-je être certain que vous n’êtes pas un zombie ? Il faudrait ouvrir et voir si l’intérieur est bien "biologique", et non un tas de processeurs.

Finalement, si l'on en revient au sujet du libre arbitre "ontologique", le zombie IA ne peut en posséder puisque chez lui tout est déterminé ; et pourtant cette IA propose des réponses imprévisibles et changeantes d'une fois sur l'autre, comme l'Humain (il n'y a que les imbéciles qui ne changent d'idée). L'IA ne semble pas n'être qu'un "perroquet stochastique" comme le souhaiteraient pas mal de philosophes.

Reste à montrer que l'Humain possède ce fameux libre arbitre ontologique, ce qui n'a jamais pu être démontré ; et pour cause (voir Libre Arbitre QUEZACO). 

La charge de la preuve, toujours...

[1] Comme Daniel Dennett, Nigel J. T. Thomas, David Braddon-Mitchell, Robert Kirk etc.

[2] Une enquête de 2013 auprès de philosophes professionnels a produit les résultats suivants : 35,6 % ont déclaré que les zombies étaient concevables mais pas métaphysiquement possibles; 23,3 % ont déclaré qu'ils étaient métaphysiquement possibles ; 16,0 % ont dit qu'ils étaient inconcevables ; et 25,1 % ont répondu "autre" - "What do philosophers believe?" - David Bourget et David Chalmers - 

_________________________________________________

Et pour aller plus loin, le livre "La dernière blessure" centré sur la notion du libre arbitre (illusoire)... en cliquant sur l'image ci-dessous