Je ne peux pas m’empêcher d’épingler une formule, amusante si elle n’était pas dangereuse, prêtée à Sam Altman, directeur d’Open AI, parue en janvier dans Le Temps. Parlant de la très prochaine arrivée (dans quelques mois, voire dans quelques semaines – et non plus dans quelques années) d’une «super intelligence artificielle», Sam Altman, selon l’article cité, «réaffirme sa croyance en une IA capable de résoudre tous nos problèmes (sic).» L’Intelligence artificielle générale (IAG) qui promettrait ce miracle, repose, d’après ses concepteurs, sur des modèles de langage, «o3 et o3-mini», dotés de capacités de raisonnement avancées.
Je ne doute pas que des capacités de raisonnement avancées permettent de pousser la logique rationnelle bien au-delà de ce que peut faire non seulement le cerveau humain, mais aussi les machines électroniques actuellement les plus puissantes. Mais ce que je conteste formellement, c’est que cette capacité nous permette de «résoudre tous nos problèmes». La raison en est simple: parmi «tous nos problèmes», il y a certes les problèmes compliqués, ceux qui convoquent un grand nombre d’éléments, objets, logiciels et mécaniques diverses. Par exemple un moteur d’avion peut être compliqué. Mais tous les éléments rassemblés dans ce problème obéissent à une seule logique, désignée par exemple par le rendement énergétique ou écologique du moteur. Ce type de problèmes compliqués, je gage que l’IAG peut les résoudre beaucoup plus rapidement qu’auparavant, lorsqu’il fallait des mois de calcul ou des heures d’ordinateur pour arriver à un résultat.
Cependant, parmi «tous nos problèmes» il y a aussi les problèmes, pas toujours compliqués, mais complexes. Par exemple, comment choisir entre le rendement énergétique et le rendement écologique, ou le moindre bruit, ou le plus facile à entretenir, ou… etc. Ce sont ces problèmes que, dès le XVIIe siècle, on appelait des «cas de conscience». Voici déjà bien longtemps, l’auteur de science-fiction, Isaac Asimov publiait une série basée sur Les Robots. Il avait imaginé une règle selon laquelle, les robots devaient être conçus et fabriqués de telle sorte qu’ils ne mettent pas en danger la vie d’un être humain, voire qu’ils le protègent systématiquement, quitte à se détruire lui-même. Mais, en supposant (supposition héroïque) que les caractéristiques d’un être humain puissent être suffisamment précises pour entrer dans un algorithme électronique, qu’en est-il lorsque le robot ne peut sauver un être humain sans en détruire un autre?
La réponse technocratique à cette question consiste à intégrer dans le système de l’IAG des critères suffisamment nombreux et précis pour que le robot ne puisse jamais hésiter. Mais, ici comme toujours, ces critères aussi nombreux soient-ils, ne viennent pas des robots eux-mêmes, mais, directement ou indirectement, de leurs concepteurs qui peuvent avoir des options bien différentes de celles qui germeraient en vous ou en moi selon les circonstances, l’éducation et l’histoire.