L'intelligence artificielle (IA) a créé un véritable tsunami cognitif qui nous est arrivé de plein fouet fin 2022.
Comme tout nouvel "outil" potentiellement délétère dont l'usage pourrait se retrouver en de mauvaises mains, l'IA est redoutée comme... le couteau, la poudre, la fission atomique etc., en leur temps. Rien de nouveau sous le soleil donc. L'affaire est entendue : l'IA pourrait faire des dégâts humains considérables (perte d'emplois, surveillance de masse, renforcement des inégalités, fin de l'humanité pour certains), mais son développement est inéluctable tant les bénéfices attendus sont extraordinaires dans tous les domaines. Et il faut des garde-fous, c'est certain.
Une autre façon de haïr l'IA est de "jalouser" son efficacité "intellectuelle", ses connaissances gigantesques qu'aucun humain ne pourrait acquérir et sa rapidité d'exécution qui laisse pantois.
Bref, l'IA comme super humain en comparaison duquel nous nous sentons "déclassés". Il y a pourtant bien longtemps que la machine nous dépasse en rapidité, force, précision etc. Mais là, on touche aux connaissances, à la culture, à l'intelligence... et c'est insupportable ? Un léger bobo, une petite crise de croissance qui va passer. Et si nous cultivions un peu plus l'humilité ?
Passons. Car ce à quoi je veux en venir ici n'a pas grand chose à voir avec ce préambule. Mais avant d'aborder le vif du sujet, il n'est pas inutile de voir comment cette IA se construit comme le montre finement cette vidéo. Notez au passage toutes les analogies énoncées ci-dessous entre le fonctionnement de la machine et celui de l'humain... On en reparle.
Notons tout d'abord que l'IA n'est pas surnaturelle mais simplement artificielle en référence à ce qui est produit par le travail, l'habileté ou l'ingéniosité de l'homme, et non par la nature elle-même. Il s'agit de quelque chose de fabriqué, fait de toutes pièces, imitant plus ou moins la nature. Les lois de la nature opèrent donc ici totalement, et il n'est pas possible de prêter à une machine l'ombre d'un libre arbitre (LA) quelconque.
Pourtant, le grand neuroscientifique Stanislas Dehaene parle d’une...
"machine capable de pondérer les informations et qui dispose d’une sorte de libre arbitre"
Sur le fond, que veut dire une « sorte » de Libre Arbitre ? Il semble que le LA soit décrit ici comme le calcul de la délibération (cerveau bayésien et/ou cerveau statisticien), ce qui contraste avec la définition habituelle, classique, d'un LA qui « surplombe » les déterminants. Par ailleurs, si la machine possède un LA - ou une "sorte" de LA -, ce dernier ne serait plus l’apanage exclusif de l’Humain ? On serait en droit de traduire ces machines en justice (ou une "sorte" de justice - pour rester cohérent) dès lors qu’elles nous trahissent ; car les machines nous trahissent, comme chacun a pu le constater, ce qui est fort heureux pour les garagistes.
Reste à savoir ce que serait cette "sorte" de justice décidant d’une "sorte" de peine du fait d’une "sorte" de LA. Retour vers les procès des animaux, et bientôt des machines ? Mais pourquoi donc conférer une "sorte de LA" à la machine plutôt que de convenir - ce qui semble bien plus rationnel - que le LA n’existe "réellement" ni pour la machine, ni pour l’animal, ni pour l’animal-humain.
- La machine calcule "statistiquement" le mot qui doit venir après le précédent, comme un humain qui finit la phrase de la grand-mère cherchant ses mots ;
- La machine peut se tromper, comme l'Humain ;
- La machine a reçu une éducation plus ou moins poussée, comme l'Humain... avec "encadrement" afin d'éviter les dérives possibles, comme l'Humain... sans omettre de lui offrir quelques "récompenses" pour renforcer son éducation, comme l'Humain ;
- La machine peut maintenant "raisonner" comme l'Humain ;
- La réponse de la machine est imprévisible, comme celle d'un Humain ;
- La machine peut se décliner en multiples "personnalités", comme l'Humain. Ainsi, Grok n'est pas Gemini qui n'est pas Mistral, qui n'est pas ChatGPT, qui n'est pas DeepSeek, qui n'est pas Copilot, qui n'est pas vous, qui n'est pas moi...
« Cette créativité extraordinaire, non humaine mais proche de la nôtre, n’a pas été programmée explicitement : elle est le fruit inattendu d’un apprentissage suffisamment riche et suffisamment complexe, qui donne à la machine une capacité, émergeante et surprenante, de ne pas répéter bêtement les phrases de son corpus d’apprentissage mais de les imiter tout en innovant... »
On dit qu’elle ne "comprend" pas ce qu’elle raconte alors même que ses réponses sont le plus souvent très compréhensibles, et que moi-même, je ne comprends pas tout ce que racontent certains de mes semblables.
D'un point de vue philosophique, l'IA est un "zombie" comme défini par le philosophe David Chalmers dans The Conscious Mind (1996), soit une entité qui se comporte exactement comme un humain mais n'a pas d'expérience subjective ni de conscience. L'IA corresponds à cette description : elle peux répondre à des questions, simuler des émotions et raisonner, mais sans conscience ni de vécu intérieur. Et l'IA est maintenant capable de passer le test de Turing ! Ce test, proposé par le génial Alan Turing évalue si une machine peut imiter une conversation humaine de manière indistinguable d'un humain !! Un "zombie" IA pourrait posséder toutes les caractéristiques d’un humain : réagir à la douleur, se plaindre d’une viande mal cuite, être en désaccord sur une certaine vision du monde - mais sans avoir pour autant la "conscience" de la douleur, du "ressenti" désagréable d'un pigment trop fort, de l’émotion générée lors d’un débat polémique etc. C’est-à-dire que ce zombie n’aurait pas de "conscience" telle que nous la définissons. Ce qui amènerait à penser qu’il existerait bien deux entité distinctes : le corps "matériel" d’une part, et la "conscience" d’autre part. Donc un retour en arrière vers un dualisme cartésien bon teint qui, chassé par la porte, reviendrait par la fenêtre.
[1] Comme Daniel Dennett, Nigel
J. T. Thomas, David Braddon-Mitchell, Robert Kirk etc.
[2] Une
enquête de 2013 auprès de philosophes professionnels a produit les résultats suivants
: 35,6 % ont déclaré que les zombies étaient concevables mais pas
métaphysiquement possibles; 23,3 % ont déclaré qu'ils étaient métaphysiquement
possibles ; 16,0 % ont dit qu'ils étaient inconcevables ; et 25,1 % ont répondu "autre" - "What do philosophers believe?" - David
Bourget et David Chalmers -
_________________________________________________
Et pour aller plus loin, le livre "La dernière blessure" centré sur la notion du libre arbitre (illusoire)... en cliquant sur l'image ci-dessous