Les lecteurs de ce blog savent que je ne me suis jamais enthousiasmé pour l’Intelligence artificielle (IA). La raison en est que, sans nier ses effets sur la vie économique et sociale, je ne crois pas aux ‘miracles’ de la technologie. La technologie est un temple auquel peut s’appliquer la remarque de Châteaubriand dans ses Mémoires d’outre-tombe:
«Le mystère disparaît d’un temple que l’on a vu construire.»
Certes, ceux qui n’ont pas construit le temple, ceux qui utilisent la technologie sans en comprendre la logique ni les mécanismes, se coulent dans l’une ou l’autre de ces deux attitudes: tantôt ils ne voient que le résultat inattendu et réagissent par un sentiment d’admiration devant ce qui leur semblent être un merveilleux mystère; tantôt ils considèrent la technologie comme une boîte noire dont ils ont appris à se servir sur la base d’une expérience répétée. Réalisme naïf d’un côté, pragmatisme fonctionnaliste de l’autre.
Un communiqué de presse venu d’une équipe conjointe de l’Université de Genève (UNIGE) et de l’Université de Berne (UniBE) participe de ces deux attitudes. (Je parle du communiqué de presse, et non pas des protocoles d’expérience, publiés dans Communications Psychology, auxquels renvoie le dit communiqué): «L’intelligence artificielle (IA) est-elle capable de suggérer des comportements adaptés face à des situations émotionnellement chargées? (L’équipe précitée) a soumis six IA génératives, dont ChatGPT, à des tests d’intelligence émotionnelle habituellement réservés aux individus. Résultat: ces IA surpassent les performances humaines et sont capables de générer en un temps record de nouveaux tests.»
Dans ce cas, le ‘miracle’ qui pourrait provoquer l’admiration, consiste à laisser croire que l’IA possède une meilleure intelligence émotionnelle que la plupart des êtres humains. Puisque ces IA surpassent les performances humaines. Comme dans tout miracle, il semble y avoir création, puisque les six IA génératives testées sont capables de générer en un temps record de nouveaux tests.
J’ajoute deux sous grinçants dans cette musique scientiste.
Ces résultats sont moins surprenants que pourrait le laisser penser le communiqué de presse. Il est vrai qu’un communiqué de presse, à l’instar d’un titre d’article de journal est moins fait pour présenter un contenu, que pour attirer l’œil du lecteur. Étant donné sa capacité de mener des opérations logiques à la vitesse électronique, l’IA ne peut que surpasser l’être humain en certains domaines où la logique et le nombre de cas à envisager sont grands. En comparant avec la même rapidité des configurations semblables au test servant de modèle, l’IA ne peut que surprendre les psychologues qui ont peiné pour élaborer des tests de même qualité. Tout cela s’explique fort bien lorsque l’on examine les algorithmes qui ont formaté les IA. Ces algorithmes flèchent les ’bonnes’ réponses et sont entraînés par des corpus de données sélectionnés par les spécialistes des disciplines concernées. Or ces disciplines – en l’espèce, ici la psychologie – sont normatives. C’est-à-dire qu’elles formalisent les valeurs dominantes reçues (et qui semblent s’imposer ‘naturellement’), ici dans le milieu des psychologues.
Parmi toutes les réponses possibles en forme de posture psychologique (ressentiment, colère, vengeance, appel à une médiation), la dernière est classée évidemment comme meilleure. Nous sommes là face à un banal phénomène culturel qui veut que, dans notre société, les sciences humaines traduisent sous une forme rigoureuse ce que soulignait déjà naguère le philosophe Éric Weil, à savoir la morale commune. Il n’y a donc pas de miracle, mais un conformisme moral des “élites”.