Publié le

Deepfakes électoraux

Alors que l’Amérique tourne son regard fatigué vers le cœur d’un nouveau cycle électoral, les sources habituelles de conflit et de confusion ont été rejointes par une nouvelle menace : les deepfakes générés par l’IA. La technologie de l’intelligence artificielle se propage et innove plus rapidement que nous ne pouvons suivre, permettant aux farceurs, aux pornographes et aux mauvais acteurs de tous bords de créer des images, des fichiers audio ou vidéo incroyablement réalistes, de personnes disant et faisant des choses qu’ils n’ont jamais dites ou faites. Par exemple, à l’approche des primaires du New Hampshire, un appel automatisé imitant Joe Biden a été envoyé aux électeurs du New Hampshire, les avertissant de ne pas aller voter. Dans d’autres régions du monde, ces derniers mois, des deepfakes publiés à la veille des élections ont montré des hommes politiques de l’opposition se trouvant dans des situations compromettantes ou tenant des propos offensants.

Bien que le problème des deepfakes commence tout juste à attirer l’attention du public, les experts mettent en garde depuis des années contre le danger imminent. En 2018, un article glaçant sur Droit a prophétisé un avenir dans lequel : « de fausses vidéos pourraient montrer des fonctionnaires acceptant des pots-de-vin, prononçant des épithètes racistes ou se livrant à l’adultère » et « des soldats pourraient être montrés en train d’assassiner des civils innocents dans une zone de guerre, précipitant des vagues de violence et même des dommages stratégiques à un effort de guerre ». » ou « un deepfake pourrait faussement représenter un policier blanc tirant sur un homme noir non armé tout en criant des épithètes raciales ». Dans notre culture polarisée, méfiante et à la gâchette facile, il n’est pas difficile d’imaginer que de tels faux deviennent viraux et génèrent une puissante réaction politique avant de pouvoir être démystifiés. Comme le prévient le vieux proverbe, « un mensonge peut voyager à l’autre bout du monde alors que la vérité est encore en train d’enfiler ses bottes ».

Bien entendu, la prolifération des deepfakes viraux pourrait avoir un autre résultat pervers, comme le montre un épisode récent. En décembre, Donald Trump a dénoncé une publicité du Lincoln Project relatant plusieurs de ses gaffes passées comme étant un faux de l'IA, alors qu'en fait les images sous-jacentes étaient bien documentées comme étant authentiques. En d’autres termes, nous sommes confrontés à un avenir – ou peut-être à un présent – ​​où les politiciens pourront être accusés d’avoir fait quelque chose de terrible qui s’avère être faux, ou accusés d’avoir fait quelque chose de réel qu’ils peuvent facilement considérer comme un canular. Le résultat est une société post-vérité, dans laquelle chaque affirmation et croyance devient une simple question de préjugé et de perspective ; les postmodernistes auraient dû faire attention à ce qu’ils souhaitaient.

Nous ne pouvons compter ni sur les codeurs ni sur les avocats pour nous sortir de ce gâchis.

Il peut être utile – bien que pas vraiment réconfortant – de réaliser qu’à bien des égards, ce à quoi nous sommes actuellement confrontés avec les deepfakes n’est que l’intensification de tendances de longue date. Depuis l’avènement de la radio, il est possible de présenter de manière convaincante quelqu’un disant quelque chose qu’il n’a pas vraiment dit, et de distribuer instantanément la distorsion à des millions de personnes. Après tout, le contexte est primordial, et un « extrait sonore » intelligemment édité peut facilement donner l’impression que la déclaration la plus anodine est perverse, surtout si elle est recontextualisée aux côtés d’autres dans un collage compromettant. Les médias d’information modernes, en particulier lorsqu’il s’agit de couverture politique, sont bien plus intéressés à attiser l’indignation à bas prix qu’à fournir un contexte véridique, et les médias sociaux ont intensifié cette tendance. Les deepfakes d’IA poussent simplement le processus encore plus loin.

Ce n’est pas parce que la situation est mauvaise depuis un certain temps que nous devons hausser les épaules face à une aggravation de la situation. Comment pourrions-nous réagir à ce nouveau monde effrayant de post-vérité ? Certes, les solutions technologiques et juridiques auront un rôle à jouer. Les plateformes de médias sociaux tentent de déployer des algorithmes capables de détecter les deepfakes, et de nombreux États se précipitent pour adopter des lois criminalisant la distribution de contrefaçons non divulguées. Mais dans la course entre les agents du chaos utilisant l’IA et les agents de la loi et de l’ordre utilisant l’IA, les premiers pourraient avoir un net avantage.

Ainsi, nous ne pouvons compter ni sur les codeurs ni sur les avocats pour nous sortir de ce gâchis. Au contraire, chacun de nous a la responsabilité d’accepter l’appel discordant à la maturité qu’exige la vie dans cette cacophonie. Nous ne pouvons pas être de simples consommateurs passifs d’informations, mais « être transformés par le renouvellement de l’information ». [our] esprit[s]qu'en testant [we] discerner… ce qui est bon, agréable et parfait » (Rom. 12 : 2). Par-dessus tout, nous devons nous méfier du biais de confirmation, cette tendance humaine naturelle à accepter comme plausible toute information qui correspond à ce que nous pensons déjà. Considérez : si, au cours de l’enquête Mueller, un deepfake avait fuité, montrant le président Trump complotant des malversations électorales avec des agents russes, les républicains se seraient empressés de le dénoncer comme un faux, tandis que les démocrates l’auraient partagé à bout de souffle comme « preuve ». Tous deux auraient eu tort, car tous deux auraient tiré une conclusion qui leur faisait du bien, plutôt que d’attendre de découvrir ce qui était vrai.

Bien entendu, un mode de vie consistant à suspendre sans cesse notre jugement n’est pas sain. Nous ne pouvons pas abandonner complètement la confiance, mais nous devons exiger des preuves, des preuves, une confirmation et la vérité. La confiance doit être gagnée.