Mais encore... La peur de ChatGPT

Au nom de l’informatique, de l’éthique et de la pédagogie, ma précédente chronique ciblant ChatGPT a été violemment ‘épinglée’ par plusieurs internautes. Tous ces contradicteurs ont quelque chose en commun: ils me reprochent d’ignorer les dangers de l’Intelligence artificielle en minimisant le potentiel d’autonomie incontrôlable que cachent ces logiciels. Pour quelques-uns de mes opposants, un argument d’autorité est associé à ces vives critiques; ils invoquent de l’interdiction d’utiliser ChatGPT décrétée par certaines écoles, dont Sciences politiques (Paris) où les étudiants contrevenants sont menacés de sanctions particulièrement sévères qui vont jusqu’à l’exclusion de l’école et même de l’université (sic). Étant un farouche opposant à tout argument d’autorité, je le laisse de côté pour n’examiner ici que les arguments qui s’appuient sur des faits.

Le premier touche l’informatique. Ce logiciel étant capable d’apprendre, rien n’autorise à penser –prétendent mes contradicteurs– que ces logiciels resteront confinés dans les limites que leur a imposées le programmeur.
C’est faux!
Comme une plante qui, selon l’environnement où le jardinier la place, développe plus ou moins son potentiel, le robot ne peut déborder le cadre des lois internes que lui a imposées son créateur, y compris lorsqu’elle cherche en dehors d’elle-même les informations dont elle a besoin (ce qui est le propre de tous les logiciels d’IA). Les informations qui lui permettraient de modifier sa programmation seraient elles-mêmes conformes à son programme initial. Imaginer que le robot puisse «se dépasser lui-même» comme on le dit parfois des sportifs, ce n’est –comme pour l’être humain– qu’une figure de rhétorique qui ne désigne qu’un usage plus complet des potentialités de la machine.

Le second argument relève de l’éthique. L’étudiant, le journaliste ou l’écrivain qui signe un travail produit par ChatGPT s’approprierait frauduleusement le travail d’autrui.
Cet argument de mes contradicteurs pèse bien peu.
Le jardinier qui ‘exploite’ le potentiel de l’humus de son jardin enrichit le sol en y ajoutant des engrais, de l’eau, un drainage ou du compost; il ne s’approprie en rien le travail de la nature. Reste sauf, bien sûr, l’exploitation ‘minière’ du sol et de l’énergie fossile, ce que l’on peut éviter par l’agriculture raisonnée ou par l’utilisation d’intrants renouvelables. Qualifier de frauduleuse l’appropriation du travail de ChatGPT n’aurait de sens que si son concepteur (OpenIA) ne l’avait pas mis en libre accès. Certes, comme toute intelligence artificielle, ChatGPT glane sur Internet des informations produites –ou reproduites– par autrui. Mais ces informations sont, elles-aussi, en accès libre (tant qu’il n’est pas prouvé que Chat GPT a été conçue par des hackeurs et se comporte comme tel).

L’argument pédagogique, enfin, repose sur l’idée qu’en économisant l’effort du travail de documentation, de composition et de présentation du résultat, ChatGPT atrophie les capacités intellectuelles de l’étudiant, du journaliste ou de l’écrivain. Certes, dans le domaine pédagogique comme dans le domaine économique, on ne peut pas se développer par procuration. D’autant plus que l’intelligence est la mise en relation des données, et non pas leur articulation –encore moins leur juxtaposition– selon une logique préétablie; elle consiste moins à répondre à une question qu’à répondre du sens que l’on donne à la question. Comme disait mon grand-père: «pensez par soi-même, il en restera toujours quelque chose». Mais, une fois que le fonctionnement de la machine a été compris –ce qui permet d’en saisir les limites soulignées dans mon précédent blog– une bonne pédagogie consiste à s’affronter à des problèmes plus originaux que ceux que la machine peut résoudre en peu de temps.

Je n’ose pas imaginer que l’interdiction édictée par Science-po et les écoles qui ont suivi son exemple procède de la carence des professeurs qui ne sauraient pas distinguer le travail d’un étudiant de celui de ChatGPT. Discernement qui, il est vrai, pourrait être rendu plus difficile avec le développement attendu de ce logiciel. (On annonce une version «579 fois plus puissante». Quelle précision!)

En attendant que des logiciels soient développés pour déceler l’origine de ce type de production électronique (comme il en existe déjà pour repérer les plagiats), il reste aux professeurs à proposer aux étudiants des sujets mieux ciblés, qui fassent appel davantage à l’intelligence qu’à la mémoire, à développer les examens oraux plutôt que les écrits à la maison, et à mettre en place des ‘devoirs sur table’ dans des salles d’examens qui interdisent ou qui bloquent l’usage des appareils électroniques.

Auteur:

Étienne Perrot sj est un jésuite de la Province d'Europe Occidentale Francophone (EOF) qui a vécu 15 ans à Genève (de 2001 à 2016), au sein de la communauté de Carouge. Il écrit régulièrement sur le site des jésuites de Suisse depuis 2013. Il est en outre membre du conseil de rédaction de la revue culturelle suisse choisir.
Étienne Perrot, né en 1944 dans le Doubs (France). Il a enseigné  l'économie et l'éthique sociale à Paris, et l'éthique des affaires à l'Université de Fribourg 3. Il a écrit plusieurs livres, notamment Esprit du capitalisme, es-tu là ? Derrière les chiffres, discerner l’humain, Bruxelles, Lessius 2020.

Newsletter

Das Magazin „Jesuiten“ erscheint mit Ausgaben für Deutschland, Österreich und die Schweiz. Bitte wählen Sie Ihre Region aus:

×
- ×