Les craintes concernant l’intelligence artificielle existent au moins depuis 2001 : Une odyssée de l’espace, où l’ordinateur HAL prend le contrôle d’un vaisseau spatial à destination de Jupiter et tue presque tout l’équipage. En novembre dernier, lorsqu’OpenAI a mis son grand modèle de langage ChatGPT à la disposition du public, le public a pris conscience d’un développement qui n’est plus de la spéculation.
Comme des milliers d’Américains, j’ai essayé le modèle et j’ai écrit sur les résultats pour Ordo Ab Chao (voir « Les limites de ChatGPT », 28 janvier). Sa capacité à produire des réponses raisonnables et compétentes à mes questions était impressionnante, bien qu’un peu déconcertante. J’en ai conclu que la poésie de ChatGPT était molle et son humour boiteux. Il manquait une certaine étincelle, à savoir l’originalité et la créativité accordées aux humains en tant que porteurs de l’image divine. Pourtant, je me demandais si cette étincelle pouvait être imitée avec suffisamment de succès pour inciter les futurs producteurs et éditeurs à produire du contenu en masse à moindre coût.
Voici une coda intéressante pour cette histoire. Après la parution de ma chronique dans Ordo Ab Chao, un lecteur a écrit avec une correction. La première tâche que j’avais confiée à la machine était « Expliquez la controverse entre Athanase et Pélage ». ChatGPT s’est plongé dans l’histoire de l’Église primitive avec aplomb et a produit une réponse grammaticalement et historiquement exacte, à l’exception d’un détail assez important. Le débat sur le libre arbitre et le péché originel s’est déroulé entre Augustin et Pélage. Athanase est surtout connu pour une controverse antérieure avec Arius sur la divinité du Christ. Je le savais et je l’aurais corrigé si j’avais pris plus soin de revoir mon brouillon. J’étais juste négligent.
Mais la machine aussi. Après avoir frappé la paume contre le front sur la correction du lecteur, j’ai regardé l’interaction originale et wow : ChatGPT avait supposé mon erreur et avait couru avec. Il est censé devenir « plus intelligent » au fil du temps, à mesure que les erreurs factuelles sont corrigées, mais je me demande comment cela pourrait expliquer la controverse avec précision sans me rappeler gentiment qu’Augustin, et non Athanase, en était l’un des côtés.
Nous avons été prévenus que les grands modèles de langage (LLM) peuvent parfois « halluciner » ou générer de faux contenus. L’image d’une machine produisant des fantasmes comme un hippie à franges sous LSD me fait sourire – quelle histoire cela ferait ! L’explication prosaïque donnée est que les erreurs sont causées par des lacunes dans les données d’entraînement. Le modèle n’a pas encore incorporé suffisamment d’informations pour fournir une réponse précise, il invente donc des choses. Cela semble humainement attachant, comme n’importe quel collégien écrivant un rapport sur un livre qu’il n’a pas lu.
Un problème plus grave est celui du « jailbreak » ou du contournement malveillant des garde-fous censés empêcher les LLM de promouvoir des théories du complot ou de produire du contenu offensant ou dangereux. En ajoutant des chaînes de caractères aux invites en langage naturel, les jailbreakers peuvent tromper la machine et lui envoyer des réponses trompeuses.
Tout cela était prévisible, tout comme l’abandon joyeux avec lequel les étudiants utiliseraient ChatGPT et d’autres chatbots comme Bing et Bard pour produire leurs essais. Certains enseignants ont décidé de s’y mettre. Daniel Herman décrit dans L’Atlantique comment il a réorganisé son cours d’anglais cette année, supprimant les devoirs de dissertation au profit de discussions littéraires en classe. Ses étudiants peuvent ensuite intégrer leurs idées dans leurs ordinateurs portables et laisser les robots les mettre sous une forme lisible, ce qui, selon lui, sera plus original que les documents mornes et mécaniques sur les thèmes et le symbolisme dans Moby Dick.
Approche intéressante, mais en tant que fervent partisan de l’écriture claire comme pierre angulaire d’une pensée claire, je ne suis pas convaincu. Chaque technologie prend et donne, et il est déjà trop tard pour débattre de la question de savoir si l’IA constitue un bénéfice net pour l’humanité. Ce train a quitté la gare. L’humanité, comme toujours, doit lutter contre les implications et décider comment réagir ou non. Les chrétiens, comme toujours, doivent repenser leur vocation de créateurs et de rédempteurs de culture à la lumière d’une innovation qui pourrait miner les deux. « Testez les esprits », prévient l’apôtre dans 1 Jean. Pour nous, c’est l’esprit d’une époque transhumaniste aussi imparfaite que le sont les humains.