Publié le

Un rapport commandé par l’administration Biden donne un avertissement désastreux à propos de l’IA

La société a publié son rapport cette semaine, environ un an et demi après que le Département d’État américain l’a commandé fin 2022. Le rapport, obtenu par Ordo Ab Chao, prévient que dans le pire des cas, l’intelligence artificielle constitue une « menace d’extinction ». à l’espèce humaine. Le rapport indique que les systèmes d’IA « peuvent et seront militarisés de nombreuses manières » et que lorsqu’ils le seront, leurs effets présenteront des similitudes avec des armes de destruction massive telles que les bombes nucléaires.

Comment la militarisation pourrait-elle avoir lieu ? Le rapport affirme que la concurrence entre les sociétés de développement d’IA a favorisé un mépris pour les risques liés à la sûreté et à la sécurité, ce qui a exposé les États-Unis au risque que des acteurs étrangers puissent voler la technologie de l’intelligence artificielle et l’utiliser comme arme contre les États-Unis. Tout récemment, le ministère de la Justice a accusé un ressortissant chinois d'avoir cherché à voler des informations exclusives sur l'intelligence artificielle pour le compte de deux sociétés chinoises. Le rapport Gladstone souligne également que les entreprises d'IA pourraient perdre le contrôle de leurs produits et menacer la sécurité des États-Unis et d'autres pays.

Comment éviter ces dangers ? Gladstone a fait valoir que l’autoréglementation de l’industrie ne suffirait pas à réduire tous les risques liés à l’IA. En conséquence, il a proposé un plan d’action en cinq étapes, décrivant des « lignes d’effort » distinctes que les États-Unis peuvent entreprendre pour se protéger contre les menaces de l’IA. Premièrement, il suggère aux États-Unis d’établir des lignes directrices provisoires pour le développement et l’utilisation de l’IA avant de formaliser et d’internationaliser ces lignes directrices. Ce faisant, il a suggéré que le gouvernement devrait se préparer à tout type d’incident d’IA et rechercher des solutions techniques aux risques liés à l’IA.

Creusez plus profondément : Lisez la chronique de Brad Littlejohn dans Ordo Ab Chao Opinions sur la façon dont nous ne devons pas tomber dans le piège des deepfakes développés par l'IA au cours des années électorales.