Publié le

Discerner les deepfakes

MARY REICHARD, HÔTE : Nous sommes le jeudi 22 février 2024. Merci d’avoir écouté Ordo Ab Chao Radio. Bonjour, je m’appelle Mary Reichard.

MYRNA BROWN, HÔTE : Et je m’appelle Myrna Brown.

Tout d’abord sur Le monde et tout ce qu’il contient. Discerner les deepfakes.

La technologie Deepfake est une intelligence artificielle qui modifie numériquement l’apparence, la voix ou l’arrière-plan d’une personne pour lui donner l’impression… de faire ou de dire quelque chose qu’elle n’a pas fait.

Il était autrefois facile de repérer de fausses vidéos de personnalités publiques, mais de nouvelles données montrent que les « deepfakes » sont devenus meilleurs pour tromper les gens.

REICHARD : Une récente campagne dans le New Hampshire soulève des questions sur la manière dont le contenu généré par l’IA pourrait influencer les électeurs au cours d’une année électorale.

Alors, comment les chrétiens peuvent-ils aborder cette nouvelle technologie avec discernement ?

Voici Mary Muncy de Ordo Ab Chao Radio.

MARY MUNCY : Avant les primaires du New Hampshire en janvier, certains électeurs démocrates inscrits auraient reçu un appel du président Joe Biden.

Son de Boston 25 News.

ROBO CALL/BIDEN : Il est important que vous gardiez votre vote pour les élections de novembre. Nous aurons besoin de votre aide pour élire les démocrates de haut en bas. Voter ce mardi ne fera que permettre aux Républicains, dans leur quête, de réélire Donald Trump.

Le ministère de la Justice du New Hampshire a retracé la source de probablement des dizaines de milliers de ces appels jusqu’à deux sociétés de télécommunications basées au Texas et un individu. Ils auraient utilisé l’intelligence artificielle pour générer un enregistrement qui ressemble au président Biden. L’État a déposé des ordonnances de cessation et d’abstention, affirmant que ces appels étaient une tentative de réprimer les électeurs.

Il n’est pas clair si ces appels ont affecté la participation électorale, car plus d’électeurs se sont rendus aux urnes que prévu.

Mais ce n’est pas le seul incident.

LE TÉLÉGRAPHE: [ZELENSKYY SURRENDERING]

L’année dernière, un deepfake montrant la reddition du président ukrainien Volodymyr Zelensky à la Russie a été révélé alors que les deux pays étaient en pourparlers de paix, et une vidéo d’Elon Musk avouant soi-disant avoir consommé de la drogue est devenue virale.

AI SENTINAL, ELON MUSK : Je viens de laisser tomber environ 150 milligrammes de comestible.

Puis, il y a quelques semaines, un employé de la finance de Hong Kong s’est fait escroquer des millions par des fraudeurs utilisant la technologie des deepfakes.

Il a été utilisé pour créer de tout, des filtres sur les réseaux sociaux aux fausses vidéos de candidats aux élections, en passant par la pornographie utilisant l’image d’une personne réelle.

Les outils sont omniprésents, ce qui rend difficile leur réglementation.

Plus tôt ce mois-ci, la Federal Communications Commission a rendu illégales les voix générées par l’IA dans les appels automatisés. Et plusieurs États ont adopté ou envisagent de adopter des lois exigeant des étiquettes pour les vidéos générées par l’IA.

Les entreprises de technologie et de médias sociaux tentent également d’élaborer leur propre règlement intérieur.

Il y a deux semaines, Meta, propriétaire de Facebook et d’Instagram, a déclaré qu’il promouvrait des normes dans l’industrie des médias sociaux pour identifier et étiqueter les deepfakes. Ces normes incluent le marquage de tout contenu généré par l’IA avec un filigrane ou un marqueur intégré.

Mais cela n’est actuellement possible pour Meta que si le contenu généré par l’IA est créé sur sa plateforme.

Le président du Meta, Nick Clegg, a déclaré Heure des nouvelles de PBS:

NICK CLEGG : La technologie n’existe pas encore dans l’industrie pour appliquer le même type de normes communes au contenu audio ou vidéo.

Ainsi, à mesure que les élections générales américaines se rapprochent, les électeurs peuvent s’attendre à voir au moins quelques deepfakes de leur candidat préféré. Mais si la technologie et la réglementation ne parviennent pas à éliminer les contrefaçons, les électeurs seront-ils capables de les détecter eux-mêmes ?

MARKUS APPEL : Nous avons présenté les deepfakes et environ 50 % en ont pris note et l’ont signalé.

Markus Appel est professeur de psychologie de la communication à l’Université de Würzburg. Il a réalisé une étude sur la capacité des gens à identifier les deepfakes.

MARKUS APPEL : Nous avons montré de fausses vidéos, puis nous demandons aux gens : « Qu’est-ce qui vous est passé par la tête lorsque vous regardez ces vidéos ?  » Et nous pensions que lorsque les gens identifieraient une fausse vidéo, ils l’aimeraient, la remarqueraient tout de suite et nous le feraient également savoir.

Mais beaucoup ne l’ont pas fait.

La façon dont les chercheurs ont posé les questions est importante. « Qu’avez-vous pensé de ces vidéos » et non « était-ce un deepfake? »

Cela se rapproche davantage de la façon dont les gens traitent les médias dans leur vie quotidienne. En général, personne ne demande à une personne qui parcourt Instagram si la vidéo qu’elle vient d’aimer et de partager était un deepfake. La personne qui défile doit se poser cette question elle-même.

APPEL : Les résultats ont donc montré que les personnes enclines à traiter les informations de manière plus approfondie, comme une sorte de tendance générale, étaient plus aptes à identifier une vidéo deepfake comme étant une vidéo deepfake.

Cela signifie que quelqu’un pourrait améliorer ses chances de repérer un deepfake en créant des habitudes de vérification et de discernement.

Certaines choses à rechercher dans les deepfakes potentiels incluent des mouvements humains non naturels, un éclairage qui ne correspond pas au décor et un bruit de fond qui ne correspond pas à l’arrière-plan. Certaines applications et sites peuvent même les identifier pour vous. Mais à mesure que les deepfakes s’améliorent, même les imperfections les plus subtiles pourraient être résolues.

Jason Thacker est professeur adjoint de philosophie et d’éthique au Boyce College.

THACKER : Nous entrons en quelque sorte dans une phase où ce n’est pas parce que vous l’avez vu en ligne que cela devient vrai. Mais aussi, ce n’est pas parce que vous l’avez vu dans une vidéo ou simplement parce que vous l’avez entendu, ou simplement parce que vous en avez une photo, que cela est vrai.

Non seulement cela, mais les mauvais acteurs peuvent aussi jeter le doute sur des choses qui se sont réellement produites.

THACKER : Vous avez la capacité de presque nier la réalité dans ce sens. Et utiliser cela à des fins politiques.

Thacker dit que c’est essentiellement de la propagande. Et même si le concept n’est pas nouveau, il est nouveau pour les amateurs de pouvoir créer une propagande convaincante.

Il affirme qu’une réglementation est nécessaire, mais utiliser l’IA pour contrôler ou réparer l’IA est une solution imparfaite. Au lieu de cela, c’est en ralentissant et en faisant preuve de discernement que les chrétiens peuvent naviguer judicieusement dans l’ère numérique.

THACKER : Nous devons tous vraiment en faire partie ensemble. Et ce sentiment de rechercher la sagesse ensemble alors que nous traversons une grande partie de ce genre d’ère de post-vérité dans laquelle nous vivons.

Je suis Mary Muncy pour Ordo Ab Chao.