À l'origine, Internet était présenté comme « l'autoroute de l'information ». Il s'est avéré qu'il ressemblait davantage à l'autoroute de Los Angeles présentée au début du film. La La Land: une impasse à perte de vue, avec au moins de bons clips musicaux pour passer le temps. Alors que de plus en plus d'informations s'accumulent, nous désespérons de plus en plus de pouvoir les trier ou de séparer les faits de la fiction. Comme si souvent, nous espérions résoudre nos problèmes technologiques avec plus de technologie, dans ce cas, des robots d'intelligence artificielle si intelligents qu'ils peuvent répondre à n'importe quelle question, résoudre n'importe quel problème, faire des recherches sur n'importe quel article pour vous. Mais qu'en est-il s'ils ne sont pas si intelligents que ça après tout ?
Jusqu’à présent, si l’IA s’est révélée étonnamment efficace dans des tâches créatives – y compris certaines que nous pensions être exclusivement humaines – elle a tendance à décevoir dans ce que nous aurions pu considérer comme la tâche la plus élémentaire, à savoir dire la vérité. Les chercheurs comme les utilisateurs occasionnels ont constaté que les principales plateformes d’IA comme SearchGPT ou Perplexity débitaient régulièrement des faits entièrement fabriqués avec une confiance sereine. Des avocats qui s’appuyaient imprudemment sur de tels modèles pour leurs recherches ont été surpris en train de citer des cas qui n’avaient jamais eu lieu. Il semble que l’IA soit peut-être plus humaine que nous le souhaiterions – tout aussi encline que nous à embellir des histoires, à imaginer des souvenirs et à inventer des preuves pour corroborer ses affirmations.
Bien que cela puisse paraître choquant à première vue, la récurrence des « hallucinations » de l’IA (comme les appellent les programmeurs) semble logique, car elle est une caractéristique presque inévitable des technologies et une image troublante de nos propres processus de pensée. Face à des masses d’informations, l’IA fait ce que nous faisons, mais beaucoup plus rapidement : elle essaie de former une image cohérente, en faisant correspondre les nouvelles informations aux informations existantes et, lorsqu’elle se heurte à une lacune dans ses connaissances, en devinant ou en prédisant quelque chose qui comblerait vraisemblablement cette lacune.
Les philosophes débattent depuis longtemps entre un modèle de vérité dit de « correspondance » et un modèle de « cohérence ». Le premier reflète la conviction de bon sens selon laquelle le but de la connaissance est de saisir le monde réel, que quelque chose est « vrai » dans la mesure où il correspond à la réalité. Selon les cohérentistes, cependant, puisque nous n'avons pas d'accès immédiat et impartial à la réalité, le mieux que nous puissions faire est de nous efforcer d'atteindre un cohérent carte mentale, une carte dans laquelle nos différentes croyances s'accordent et ne se contredisent pas. Bien que cette évaluation soit trop pessimiste, elle reflète avec précision la façon dont nous fonctionnons souvent – et pour l'IA, elle est tout à fait exacte. Nous avons un certain accès à la réalité, mais pas nos robots. Si notre flux X nous indique qu'il y a une tempête dehors, nous pouvons toujours, en cas de besoin, vérifier les faits en sortant de chez nous. ChatGPT ne le peut pas. Il ne peut pas nous dire ce qui se passe est c'est vrai, seulement ce que se sent vrai.
En soi, cela n’est pas forcément très inquiétant. C’est, après tout, la limite à laquelle nous sommes confrontés chaque jour lorsque nous parlons à des gens ordinaires. Nous savons qu’ils ne sont pas infaillibles, qu’ils se trompent parfois de mémoire, qu’ils ont tendance à avoir un biais de confirmation et qu’ils essaient probablement de se présenter comme plus instruits qu’ils ne le sont en réalité. Si les robots d’intelligence artificielle reproduisent ces faiblesses humaines, ils ne nous égareront pas plus que nous ne le sommes déjà. En fait, ils pourraient même s’avérer utiles, en nous rappelant à quel point notre propre tendance à essayer d’adapter les faits à nos récits est omniprésente.
Le problème, cependant, est que les chatbots peuvent son C'est bien plus fiable. Nous avons déjà rencontré ce problème avec Internet en général. Même si nous savons que les faussetés circulent facilement en ligne, nous nous laissons facilement prendre par les « faits » que nous trouvons sur le Web, les citant avec assurance pour prouver notre point de vue. C'est précisément en raison de l'impersonnalité du média qu'ils semblent bien plus objectifs et fiables que de simples témoignages personnels.
Comme pour beaucoup de ces technologies, le problème ne vient pas tant d’elles que de nous-mêmes, des hypothèses irréalistes que nous leur faisons et de la fausse confiance que nous leur accordons. Si les adultes formés à l’esprit critique et aux habitudes de scepticisme sain peuvent prendre les réponses de ChatGPT avec un grain de sel, les enfants qui utilisent ces robots pour la première fois risquent davantage de perdre leur ancrage dans la réalité. En effet, le plus grand danger de ces outils est peut-être que, après avoir trop cru en eux pour nous aider à comprendre le monde, nous tombions encore plus dans un scepticisme désespéré lorsqu’ils nous laissent tomber.