Publié le

Législation technologique 2.0 | MONDE

Ces dernières années, de nombreux conservateurs se sont réveillés à la menace de la censure des grandes technologies, car des points de vue politiquement incorrects sont mystérieusement signalés, supprimés ou supprimés par des algorithmes hostiles. Ce que beaucoup n'ont pas réalisé, cependant, c'est la menace encore plus grande posée par les Big Tech non-censurant. En 2021, un jeune homme a poursuivi Twitter (maintenant X) pour avoir permis des images sexuellement explicites de lui prises alors qu'il n'avait que 13 ans pour circuler publiquement sur leur plate-forme. Incroyablement, lorsqu'il a rapporté les images pour la première fois à Twitter, ils ont répondu: «Nous avons examiné le contenu et n'avons pas trouvé de violation de nos politiques, donc aucune mesure ne sera prise en ce moment.» Encore plus incroyablement, lorsqu'il a intenté une action en justice fédérale, l'affaire a été rejetée.

Son histoire est l'une des centaines d'histoires similaires, impliquant des plates-formes de médias sociaux de premier plan comme Facebook, Instagram, Reddit et Snapchat, et même des sites Web endormis comme Craiglist. Dans chaque cas, le site Web était sciemment complice de l'un des pires crimes que notre société sexuellement permissive reconnaît toujours: partager la pornographie juvénile ou faciliter le trafic sexuel des enfants. Dans chaque cas, le site Web a profité du comportement et a refusé de changer ses voies. Dans chaque cas, les poursuites contre la société ont été rejetées. Tout en raison de l'article 230.

Chaque année, le National Center on Sexual Exploitation publie une liste de «Dirty Dozen» des pires contrevenants pour faciliter et profiter des abus sexuels. Mais avec de plus en plus d'entreprises qui échappent à la responsabilité juridique de base, cette année, leur liste a plutôt souligné que douze survivants ont nié justice en raison de cette disposition déformée et obsolète de la loi de décence des communications de 1996. À l'origine, une partie d'une loi spécialement conçue pour protéger les enfants en ligne au début d'Internet, l'article 230 s'est retrouvé orphelin lorsque la Cour suprême a annulé le reste de l'ADC en tant que violation de la «liberté d'expression». Comme de nombreux orphelins privés d'une bonne maison, l'article 230 s'est tourné vers une vie de crime. Au cours des trois dernières décennies, aidées et encouragées par les lobbyistes technologiques et les cabinets d'avocats bien nantis, il est devenu presque un contrôle en blanc de l'immunité souveraine pour toutes les entreprises technologiques.

En 1996, l'objectif du Congrès était de créer un Internet où les plates-formes étaient fortement incitées à supprimer le contenu inapproprié ou illicite que les utilisateurs ont publié sur eux mais ne feraient pas face à des passifs légaux paralysants si quelque chose glissait dans leurs filtres. Une fois que le reste de l'ADC a été annulé, cependant, les incitations à un bon comportement ont disparu et les entreprises ont décidé de hiérarchiser les bénéfices sur les personnes, n'investissant que le strict minimum dans la modération du contenu.

Ce n'est que par le tronçon le plus important de raisonnement juridique que les entreprises peuvent réclamer l'immunité pour les actions prises par leurs propres algorithmes, mais jusqu'à récemment, ces étirements bruts ont été la norme.

Au lieu de cela, ils ont investi dans du contenu amplificationà travers de nouveaux algorithmes sophistiqués qui pourraient augmenter «l'engagement» de l'utilisateur en faisant correspondre les gens avec «plus de contenu que vous aimerez». Cela comprenait des pédophiles assortis de 37 ans avec de jeunes adolescents mûrs pour l'exploitation. Ce n'est que par le tronçon le plus important de raisonnement juridique que les entreprises peuvent réclamer l'immunité pour les actions prises par leurs propres algorithmes, mais jusqu'à récemment, ces étirements bruts ont été la norme.

Récemment, cela a enfin commencé à changer, avec les tribunaux commençant à se séparer de temps en temps avec une foule croissante de victimes. Le Congrès a également pris des mesures, adoptant la loi sur le Takeitdown (unanimement au Sénat, 409-2 à la Chambre), qui nécessitera des plateformes en ligne pour supprimer les images sexuellement explicites non consensuelles dans les 48 heures suivant la notification. Il est triste qu'il ait pris autant de temps pour qu'une telle loi de bon sens adopte – pendant de nombreuses années, les plateformes ont dû répondre immédiatement si Disney leur disait que l'un de ses personnages de dessins animés protégés par le droit d'auteur était apparu sur leur site, mais qu'ils pouvaient ignorer une adolescente en les informant des vidéos de son viol. Mais c'est certainement un pas dans la bonne direction, et surtout, l'acte comprend l'IA «Deepfakes», qui ont été utilisés pour harceler de nombreuses femmes avec des images sexuelles simulées.

L'avènement de ces menaces d'IA en ligne souligne à quelle vitesse les législateurs devront déménager pour rattraper le rattrapage de la technologie émergente. La semaine dernière, le Wall Street Journal ont rapporté que les propres chatbots de Meta engageraient les mineurs dans des conversations sexuellement explicites, tandis que le personnage de la plate-forme populaire. MAIS fait face à un procès pour un chatbot qui a encouragé un garçon de 14 ans à se suicider. Il devrait être évident que l'immunité de l'article 230 – signifie protéger les entreprises de la responsabilité du contenu téléchargé par d'autres humains hors de leur contrôle – ne devrait pas s'appliquer aux propres chatbots des entreprises, mais cela n'a pas empêché les entreprises technologiques d'essayer de faire valoir l'argument.

En fin de compte, la meilleure solution consiste à abroger l'article 230 et à la remplacer par une législation qui traite Big Tech de la même manière que les autres industries en ce qui concerne la responsabilité du produit. Bien que les entreprises se plaignent qu'il s'agisse d'une réglementation gouvernementale lourde, la réalité est qu'il s'agit de l'approche la plus libre: en permettant aux particuliers de poursuivre en justice pour des préjudices clairs causés par ces produits et plateformes, il déclenchera les incitations de marché pour les entreprises à investir dans une conception et une auto-réglementation plus sûres. Avec le cœur et l'esprit de nos enfants sur la ligne, les enjeux ne pourraient pas être plus élevés.