Ayant remarqué mes positions réitérées favorables à l’Intelligence Artificielle, un Internaute a eu la gentillesse de me signaler un livre paru voici deux ans, IA. L’intuition et la création à l’épreuve des algorithmes (éd. Champ Vallon 2023). Je cite cet ouvrage, car il complète ce qui manquent à mes analyses, et cela à partir d’une position très différente.
L’auteur, Alban Leveau-Vallier, pose à frais nouveaux la question lancinante:
En quoi les algorithmes à la base de l’IA sont-ils intelligents ?
Depuis l’année 1954, date d’apparition de l’IA dans l’espace public, la prétention des chercheurs en ce domaine se coule dans le paradigme qui domine la pensée occidentale depuis le rationalisme du XVIIe siècle. Pour cette pensée, il s’agit de retrouver, derrière la multiplicité des situations particulières, les traits communs de genres, d’espèces, de familles. En simplifiant ainsi les choses par abstraction des caractères particuliers, et en plaçant les phénomènes dans des catégories canoniques reconnues par les chercheurs du même domaine, on peut espérer découvrir les lois simples qui gouvernent les phénomènes. Ce qui permettrait ensuite de les maîtriser.
Cette démarche fut appliquée à la recherche sur l’intelligence humaine. Mise à la disposition des chercheurs en sciences cognitives, la capacité de plus en plus énorme des ordinateurs a laissé croire que l’on arriverait bien vite (dans une quinzaine ou une vingtaine d’années – mais ces chiffres n’ont pas changé depuis 1954) à faire faire aux machines le travail d’un cerveau humain.
L’échec récurrent de ces tentatives repose sur la fausseté de l’hypothèse de base, selon laquelle «toute la pensée peut se décrire sous la forme d’un algorithme». Un algorithme est une suite d’opérations simples, quasiment mécaniques, ne supposant aucune réflexion, et permettant d’aboutir à un résultat prédéterminé. Cette fausse hypothèse reflète l’idéologie matérialiste – il faudrait dire mécaniste – du XVIIe siècle, dont l’image la plus parlante est certainement celle de l’automate. Comme si les êtres animés n’étaient mus que leurs conditionnements les plus simples (d’abord mécaniques, puis celle des fluides, maintenant celle de la thermodynamique).
En supposant que l’hypothèse soit vraie, il n’en demeurerait pas moins l’impossibilité de dresser la liste exhaustive des conditions nécessaires et suffisantes pour qu’advienne tel phénomène particulier. Il ne reste plus à l’IA qu’à travailler, non sur des phénomènes particuliers, mais sur des grands nombres, par des calculs de moyennes statistique. Les résultats sont déjà conséquents – ce que je me suis plu à remarquer dans mes précédents blogs sur le sujet, tout en en soulignant les effets pervers.
Les succès futurs de l’IA viendront, pense M. Leveau-Vallier, comme ceux des autres sciences de la nature, non pas de la recherche de lois générales, mais de «la prise en compte de la singularité des objets décrits». Ce qui conduit à faire le «deuil de l’idéal du modèle hors du temps».
J’en suis d’accord. Qu’il s’agisse des objets, des phénomènes ou des personnes, la singularité ne peut être atteinte – Edmund Husserl le notait déjà voici plus d’un siècle – que par l’intuition, cette « sympathie, écrit Henri Bergson, par laquelle on se transporte à l’intérieur d’un objet pour coïncider avec ce qu’il a d’unique et par conséquent d’inexprimable. Ce qui implique d’accepter de ne rien maîtriser, tout en recevant ce qui arrive.