Wikipedia

Résultats de recherche

Traduction

Pourquoi l’IA est-elle haïe ?

L'intelligence artificielle (IA) a créé un véritable tsunami cognitif qui nous est arrivé de plein fouet fin 2022. 

Comme tout nouvel "outil" potentiellement délétère dont l'usage pourrait se retrouver en de mauvaises mains, l'IA est redoutée comme... le couteau, la poudre, la fission atomique etc., en leur temps. Rien de nouveau sous le soleil donc. L'affaire est entendue : l'IA pourrait faire des dégâts humains considérables (perte d'emplois, surveillance de masse, renforcement des inégalités, fin de l'humanité pour certains), mais son développement est inéluctable tant les bénéfices attendus sont extraordinaires dans tous les domaines. Et il faut des garde-fous, c'est certain.

Une autre façon de haïr l'IA est de "jalouser" son efficacité "intellectuelle", ses connaissances gigantesques qu'aucun humain ne pourrait acquérir et sa rapidité d'exécution qui laisse pantois. 

Bref, l'IA comme super humain en comparaison duquel nous nous sentons "déclassés". Il y a pourtant bien longtemps que la machine nous dépasse en rapidité, force, précision etc. Mais là, on touche aux connaissances, à la culture, à l'intelligence... et c'est insupportable ? Un léger bobo, une petite crise de croissance qui va passer. Et si nous cultivions un peu plus l'humilité ? 

Passons. Car ce à quoi je veux en venir ici n'a pas grand chose à voir avec ce préambule. Mais avant d'aborder le vif du sujet, il n'est pas inutile de voir comment cette IA se construit comme le montre finement cette vidéo. Notez au passage toutes les analogies énoncées ci-dessous entre le fonctionnement de la machine et celui de l'humain... On en reparle.

Notons tout d'abord que l'IA n'est pas surnaturelle mais simplement artificielle en référence à ce qui est produit par le travail, l'habileté ou l'ingéniosité de l'homme, et non par la nature elle-même. Il s'agit de quelque chose de fabriqué, fait de toutes pièces, imitant plus ou moins la nature. Les lois de la nature opèrent donc ici totalement, et il n'est pas possible de prêter à une machine l'ombre d'un libre arbitre (LA) quelconque.

Pourtant, le grand neuroscientifique Stanislas Dehaene parle d’une...

"machine capable de pondérer les informations et qui dispose d’une sorte de libre arbitre"

 Sur le fond, que veut dire une « sorte » de Libre Arbitre ? Il semble que le LA soit décrit ici comme le calcul de la délibération (cerveau bayésien et/ou cerveau statisticien), ce qui contraste avec la définition habituelle, classique, d'un LA qui « surplombe » les déterminants. Par ailleurs, si la machine possède un LA - ou une "sorte" de LA -, ce dernier ne serait plus l’apanage exclusif de l’Humain ? On serait en droit de traduire ces machines en justice (ou une "sorte" de justice - pour rester cohérent) dès lors qu’elles nous trahissent ; car les machines nous trahissent, comme chacun a pu le constater, ce qui est fort heureux pour les garagistes. 

Reste à savoir ce que serait cette "sorte" de justice décidant d’une "sorte" de peine du fait d’une "sorte" de LA. Retour vers les procès des animaux, et bientôt des machines ? Mais pourquoi donc conférer une "sorte de LA" à la machine plutôt que de convenir - ce qui semble bien plus rationnel - que le LA n’existe "réellement" ni pour la machine, ni pour l’animal, ni pour l’animal-humain. 

Comme abordé dans la vidéo :

  • La machine calcule "statistiquement" le mot qui doit venir après le précédent, comme un humain qui finit la phrase de la grand-mère cherchant ses mots ;
  • La machine peut se tromper, comme l'Humain ;
  • La machine a reçu une éducation plus ou moins poussée, comme l'Humain... avec "encadrement" afin d'éviter les dérives possibles, comme l'Humain... sans omettre de lui offrir quelques "récompenses" pour renforcer son éducation, comme l'Humain ;
  • La machine peut maintenant "raisonner" comme l'Humain ;
  • La réponse de la machine est imprévisible, comme celle d'un Humain ;
  • La machine peut se décliner en multiples "personnalités", comme l'Humain. Ainsi, Grok n'est pas Gemini qui n'est pas Mistral, qui n'est pas ChatGPT, qui n'est pas DeepSeek, qui n'est pas Copilot, qui n'est pas vous, qui n'est pas moi... 
Comme le précise dans "Parole de machines" Alexei Grinbaum (2023 - humenSciences - p.145) :

« Cette créativité extraordinaire, non humaine mais proche de la nôtre, n’a pas été programmée explicitement : elle est le fruit inattendu d’un apprentissage suffisamment riche et suffisamment complexe, qui donne à la machine une capacité, émergeante et surprenante, de ne pas répéter bêtement les phrases de son corpus d’apprentissage mais de les imiter tout en innovant... »
Il ne manque - dit-on - que la parole aux animaux, alors qu'il ne manque que les expériences sensibles aux ordinateurs et à l'IA en particulier. Pour l'instant.
On dit qu’elle ne "comprend" pas ce qu’elle raconte alors même que ses réponses sont le plus souvent très compréhensibles, et que moi-même, je ne comprends pas tout ce que racontent certains de mes semblables.

Et qu’est-ce que "comprendre" signifie ? Du point de vue étymologique, l’affaire est simple : c’est prendre ensemble, rassembler ou saisir plusieurs éléments en même temps. En philosophie, c’est la compréhension intellectuelle ou rationnelle d'un concept, d'une idée ou d'un phénomène, soit une forme de connaissance impliquant une réflexion profonde, une analyse critique et une interprétation du sens ; toutes caractéristiques qui semblent présentes concernant la réponse de la machine dans la citation ci-dessus. Alors, faut-il conserver le concept de "compréhension" cher à l’humain ou le jeter dans la poubelle de l’éliminativisme ? Cette IA "prédit" du point de vue statistique le mot qui doit suivre le précédent et le résultat a du sens pour un humain : furieusement étonnant, non ? 
Comme des spécialistes nous le disent depuis des années, c’est à se demander si nos "algorithmes" cérébraux ne fonctionnent pas de façon similaire. 
De fait, l’analogie avec le cerveau n’est pas aberrante puisque c’est le modèle pris par les développeurs : nos neurones sont des unités qui sont au repos (0) ou s’activent (1) pour passer une information électrique (puis chimique) aux neurones connectés en réseau. En informatique, un réseau de neurones est composé de nœuds interconnectés en couches : le courant passe (1) ou ne passe pas (0). Étranges similitudes. 
Mais rassurons tout de suite : le cerveau biologique reste bien plus performant que les processeurs, en tout cas dans certains domaines, et pour l'instant.

D'un point de vue philosophique, l'IA est un "zombie" comme défini par le philosophe David Chalmers dans The Conscious Mind (1996), soit une entité qui se comporte exactement comme un humain mais n'a pas d'expérience subjective ni de conscience. L'IA corresponds à cette description : elle peux répondre à des questions, simuler des émotions et raisonner, mais sans conscience ni de vécu intérieur. Et l'IA est maintenant capable de passer le test de Turing ! Ce test, proposé par le génial Alan Turing évalue si une machine peut imiter une conversation humaine de manière indistinguable d'un humain !! Un "zombie" IA  pourrait posséder toutes les caractéristiques d’un humain : réagir à la douleur, se plaindre d’une viande mal cuite, être en désaccord sur une certaine vision du monde - mais sans avoir pour autant la "conscience" de la douleur, du "ressenti" désagréable d'un pigment trop fort, de l’émotion générée lors d’un débat polémique etc. C’est-à-dire que ce zombie n’aurait pas de "conscience" telle que nous la définissons. Ce qui amènerait à penser qu’il existerait bien deux entité distinctes : le corps "matériel" d’une part, et la "conscience" d’autre part. Donc un  retour en arrière vers un dualisme cartésien bon teint qui, chassé par la porte, reviendrait par la fenêtre.

Je dois dire que je suis, comme d’autres[1], assez sceptique quant à l’intérêt d’une pareille hypothèse d’ailleurs à peu près abandonnée de nos jours[2]. Sceptique d’une part parce que si ce zombie possède toutes les caractéristiques de l’Humain, son apparence, son appétit, sa finesse de raisonnement, sa sensibilité, sa morale etc., il est alors impossible de distinguer ce zombie d’un "vrai" humain, test de Turing oblige... D’autant que si on l’interroge, ce zombie affirmera qu’il a bel et bien une conscience, qu’il est un humain comme les autres et qu’il ne comprend pas pourquoi on met sa parole en doute, et de quel droit etc. Qui pourrait donc affirmer que ce zombie ment ; et sur quels éléments nous dira l'avocat? En l’absence de preuves possibles allant dans ce sens, il nous faudrait bien le considérer comme un semblable, le respecter et lui donner les mêmes droits que les humains (?). Jusqu’à se demander si nous ne sommes pas entourés de zombies puisqu’il serait impossible de faire la différence entre eux et nous. D'ailleurs, comment puis-je être certain que vous n’êtes pas un zombie ? Il faudrait ouvrir et voir si l’intérieur est bien "biologique", et non un tas de processeurs.

Finalement, si l'on en revient au sujet du libre arbitre "ontologique", le zombie IA ne peut en posséder puisque chez lui tout est déterminé ; et pourtant cette IA propose des réponses imprévisibles et changeantes d'une fois sur l'autre, comme l'Humain (il n'y a que les imbéciles qui ne changent d'idée). L'IA ne semble pas n'être qu'un "perroquet stochastique" comme le souhaiteraient pas mal de philosophes.

Reste à montrer que l'Humain possède ce fameux libre arbitre ontologique, ce qui n'a jamais pu être démontré ; et pour cause (voir Libre Arbitre QUEZACO). 

La charge de la preuve, toujours...

[1] Comme Daniel Dennett, Nigel J. T. Thomas, David Braddon-Mitchell, Robert Kirk etc.

[2] Une enquête de 2013 auprès de philosophes professionnels a produit les résultats suivants : 35,6 % ont déclaré que les zombies étaient concevables mais pas métaphysiquement possibles; 23,3 % ont déclaré qu'ils étaient métaphysiquement possibles ; 16,0 % ont dit qu'ils étaient inconcevables ; et 25,1 % ont répondu "autre" - "What do philosophers believe?" - David Bourget et David Chalmers - 

_________________________________________________

Et pour aller plus loin, le livre "La dernière blessure" centré sur la notion du libre arbitre (illusoire)... en cliquant sur l'image ci-dessous