• @ Pixabay/Alexandra Koch

ChatGPT n'est que de l'IA

Faut-il interdire à l’école, ou pour les devoirs à la maison, a fortiori pour les examens, l’utilisation de ChatGPT? Ce logiciel édité par OpenIA a la réputation de créer des textes «mieux écrits que la plupart des copies», de proposer des synthèses, de réécrire des articles glanés ici ou là (ce qui permet de faire croire que l’utilisateur, étudiant ou écrivain professionnel, en est le véritable auteur), de résoudre des problèmes de mathématique. Le secret de ChatGPT? L’IA. Comprenez l’intelligence artificielle, désormais mise à la disposition du grand public par OpenIA.

Des professeurs, paraît-il, s’y sont laissés prendre; de quoi alimenter les craintes du public envers l’IA. À titre personnel, je fais partie de la minorité de ceux qui, dans notre pays, ne manifestent aucune peur du développement de l’IA. Aussi, je pose une question : pourquoi se laisse-t-on piégé par l’illusion d’intelligence de ces logiciels? La réponse tient en ce que nos critères d’appréciation sont ceux de notre milieu: nous baignons dans la même culture répandue partout par Internet. L’accumulation énorme de données (de data ; ça sonne mieux) accessibles en un clin d’œil par les moyens électroniques actuels, permet à ces logiciels de sélectionner les références et les formulations qui, selon la loi des grands nombres, ont le plus de chance d’être acceptées, sinon par tous, du moins par la plupart d’entre nous. Car elles sont déjà le plus utilisées. Cette sélection repose sur des critères précisés a priori par la main humaine; ce qui permet d’exclure les formules à connotation raciste, antireligieuse, voire anti Woke.

Ceux qui font la fine bouche épinglent les limites actuelles de ChatGPT. Ce logiciel triomphe dans les textes brefs (genre livres pour enfants) et les problèmes mathématiques les plus simples; il produit de lourdes erreurs au-delà. Bref, il est perfectible, et je ne doute pas que ce logiciel sera perfectionné.

Mais, irait-il jusqu’à la limite de sa logique aux confins de la perfection, je maintiens qu’il ne mettrait en œuvre, malgré ses prétentions, aucune intelligence. Il n’utilise qu’une programmation fine qui le conduit à privilégier, parmi l’immense masse des informations rassemblées, les domaines et les mises en forme induits par la question posée. Le résultat est déjà prodigieux; il prolonge ce que pratique déjà l’IA en matière judiciaire, financière ou médicale: avocats, médecins ou financiers trouvent là, immédiatement, les références les plus courantes sur des sujets précis; références que leurs confrères de jadis prenaient beaucoup de temps à rassembler.

Le danger, tant sur le plan de la science que sur le plan de l’éthique, serait de confondre les statistiques (sollicitées par l’utilisateur et fournies par l’IA) avec un diagnostic. Les statistiques relèvent de la loi des grands nombres, le diagnostic s’applique à un cas particulier, qui peut être fort éloigné de la tendance moyenne. C’est là, face aux cas particuliers, que l’intelligence humaine joue son rôle, irremplaçable, comme elle le joue déjà dans la formulation de la question posée à l'ordinateur. Mais cette intelligence qui témoigne de la conscience de l’étudiant, du scribe ou du professionnel, n’est pas –et ne peut pas être– celle de la machine.

À la question faut-il interdire à l’école l’utilisation de ChatGPT? je réponds donc nettement non, il ne faut pas l’interdire; pas plus qu’il faudrait l’interdire aux journalistes, aux blogueurs ou aux ‘nègres’ de tout genre qui rédigent –moyennant finance– un texte à la place de l’auteur officiel qui signera le papier ou le discours.

Répondre oui serait renouer avec la vieille hantise du progrès technique dont la caricature traine dans toutes les mémoires: les protestations des marchands de bougies contre l’introduction de l’électricité.

Certes, tout progrès technique est destructeur, et socialement déstabilisateur, en même temps qu’il favorise la productivité. L’attitude intelligente consiste donc à utiliser ce moyen étonnant pour économiser le temps jadis gaspillé en recherche de documentation (ce que les étudiants nomment à tort travail intellectuel) pour consacrer le loisir ainsi dégagé à peaufiner les questions posées à l’ordinateur, puis à repérer, derrière le résultat fourni par la machine, ce qui échappe à la particularité du sujet, ou à la singularité exigée par le problème posé.

Bref, l’accumulation de données dans la mémoire des ordinateurs et le choix des formulations statistiquement sélectionnées par ChatGPT n’est pas l’intelligence. Comme disait mon grand-père: «Je n’ai pas de mémoire (qui reste nécessaire), c’est pourquoi je suis devenu intelligent».

 

 

Auteur:

Étienne Perrot sj est un jésuite de la Province d'Europe Occidentale Francophone (EOF) qui a vécu 15 ans à Genève (de 2001 à 2016), au sein de la communauté de Carouge. Il écrit régulièrement sur le site des jésuites de Suisse depuis 2013. Il est en outre membre du conseil de rédaction de la revue culturelle suisse choisir.
Étienne Perrot, né en 1944 dans le Doubs (France). Il a enseigné  l'économie et l'éthique sociale à Paris, et l'éthique des affaires à l'Université de Fribourg 3. Il a écrit plusieurs livres, notamment Esprit du capitalisme, es-tu là ? Derrière les chiffres, discerner l’humain, Bruxelles, Lessius 2020.

Newsletter

Das Magazin „Jesuiten“ erscheint mit Ausgaben für Deutschland, Österreich und die Schweiz. Bitte wählen Sie Ihre Region aus:

×
- ×