Résumé :
|
Dossier de presse internationale consacré à l'utilisation de l'intelligence artificielle dans les conflits armés. Les trois lois de la robotique annoncée par le romancier de science-fiction, Isaac Asimov en 1942 ; l'utilisation de systèmes d'armes létales autonomes (Sala) ou "robots tueurs" dans la guerre entre la Russie et l'Ukraine ; les explications de l'analyste au Centre d'études stratégiques de La Haye, Patrick Bolder, au sujet de la prise en compte des données émises par les capteurs sur le champ de bataille ; les raisons de l'inquiétude de Margarita Konaev, du Centre pour la sécurité et les technologies émergentes (CSET), au sujet du poids des intérêts géostratégiques ; la mise en garde d'Ulrike Franke du Conseil européen pour les relations internationales, au sujet de la chaîne de responsabilité. L'adoption de la convention d'Ottawa, contre les mines antipersonnel par 164 pays en 1997 ; l'appel du secrétaire général des Nations unies Antonio Guterres et de Mirjana Spoljaric Egger ; la question du principe d'une autorégulation sur les applications militaires de l'IA ; l'engagement relatif aux "23 principes d'Asimlomar" en 2017 ; la poursuite de la course aux armements ; l'atout des essaims de drones ; le développement de nouvelles armes autonomes. L'Ukraine, "laboratoire de la guerre du futur". Revue de presse sur l'inventivité de l'Ukraine en matière d'utilisation de l'IA à des fins militaires. Entretien avec Meron Rapoport, journaliste israélien, sur l'emploi du système d'intelligence artificielle "Lavender" utilisé par l'armée israélienne à Gaza : les conséquences de l'utilisation de Lavender ; les données utilisées ; les cibles matérielles visées par le système d'IA, Habsora ; la question du nombre de cibles ; les failles dans l'appareil sécuritaire israélien. Les difficultés de la Chine en matière d'IA militaire. La demande de chercheurs américains face au risque de création par l'IA d'armes biologiques. Le risque lié au contrôle de l'arme nucléaire par l'IA.
|