Publié le

L'UE commence à contrôler l'intelligence artificielle

La loi prévoit le premier système de régulation au monde axé sur l’intelligence artificielle, selon l’Union européenne. La loi est entrée en vigueur jeudi et vise à garantir que les systèmes d’IA respectent la dignité humaine, la sécurité et les droits fondamentaux, selon l’UE. Les systèmes d’IA classés comme à haut risque – par exemple ceux utilisés par les enseignants, les recruteurs ou les forces de l’ordre – sont soumis à des réglementations strictes avant de pouvoir être mis sur le marché. Les systèmes d’IA à risque limité doivent respecter des obligations telles que dire aux humains qu’ils parlent à un chatbot ou étiqueter certains types de contenu généré par l’IA.

Bien que la loi soit déjà en vigueur, les réglementations concernant les entreprises ne s'appliqueront pas avant l'année prochaine, selon l'UE. Certaines dispositions de la loi n'entreront en vigueur que dans trois ans au moins.

Que fait la loi ? L'Office européen de l'IA est chargé de superviser la mise en œuvre de la loi dans les États membres, a indiqué l'UE. La loi exige que les systèmes d'IA soient testés avant d'être répertoriés dans une base de données de l'UE. Un système ne peut pas apparaître sur le marché avant d'avoir été approuvé. Si le système d'IA est modifié après une première approbation, il doit repasser par l'évaluation de la conformité et l'enregistrement dans la base de données pour être réapprouvé.

La loi classe les systèmes d’IA comme présentant un risque inacceptable, élevé, limité ou minimal.

  • Inacceptable: Les systèmes d'IA qui représentent une menace évidente pour les moyens de subsistance, les droits et la sécurité des personnes sont illégaux au regard de la loi. Il s'agit notamment des jouets qui encouragent les mauvais comportements par le biais de messages vocaux et des systèmes d'IA que les gouvernements peuvent utiliser pour mettre en œuvre des systèmes de notation sociale.

  • Risque élevé: Les systèmes qui présentent un risque élevé de danger doivent fonctionner avec une surveillance humaine appropriée, fournir des journaux d'activité pour aider les autorités à retracer leurs résultats et recevoir des informations uniquement de la part des autorités. UE se définit comme une information de haute qualité afin de ne pas discriminer certains groupes.

  • Risque limité : Ces systèmes d’IA doivent informer les personnes qui interagissent avec eux qu’ils sont des systèmes d’IA et doivent identifier le contenu qu’ils produisent comme étant généré par l’IA.

  • Risque minimal : Les gens peuvent utiliser librement ces IA, qui incluent des filtres anti-spam IA et certains jeux vidéo.

Creusez plus profondément : Lisez la chronique de Brad Littlejohn dans Ordo Ab Chao Opinions sur la façon dont l’accès aux smartphones a nui à de nombreux enfants qui grandissent dans ce qui devient une génération anxieuse.