L’Utilisation de l’Intelligence Artificielle pour la Guerre : Une Menace Croissante Louise Lemoine, décembre 24, 2024 L’Utilisation de l’Intelligence Artificielle pour la Guerre : Une Menace Croissante La société OpenAI, connue pour son chatbot ChatGPT, a récemment annoncé un partenariat avec Anduril, une entreprise d’armement basée en Californie. Ensemble, ils visent à développer des armes dotées de l’intelligence artificielle (IA) qui pourront être utilisées sur les champs de bataille. Cette collaboration entre OpenAI et le Pentagone soulève des inquiétudes quant à la normalisation de l’utilisation de l’IA dans les conflits militaires. Anduril fabrique déjà des drones, des missiles et des systèmes radars alimentés par l’IA, notamment des tours de surveillance utilisées dans les bases militaires américaines à travers le monde. OpenAI a également modifié sa charte pour supprimer l’interdiction des activités présentant un risque élevé de dommages physiques, ouvrant ainsi la voie à la collaboration avec le Pentagone. Cette évolution est en contradiction avec les déclarations d’OpenAI concernant son engagement à développer une intelligence artificielle générative (AGI) sûre et bénéfique pour l’humanité. L’utilisation de l’IA dans des systèmes d’armes automatisés, l’analyse d’informations pour des attentats ou la contribution à des invasions et occupations soulève de sérieuses préoccupations éthiques. Les États-Unis poussent actuellement pour accélérer le développement de l’IA dans les systèmes de sécurité nationale, avec une focalisation particulière sur la concurrence avec la Chine. Cela a conduit à des restrictions sur les exportations de composants clés pour l’IA vers la Chine et à des efforts pour renforcer la position américaine dans la course à l’armement en matière d’IA. La technologie de guerre basée sur l’IA est déjà utilisée dans divers contextes, notamment à la frontière entre les États-Unis et le Mexique, en Palestine, et dans les avant-postes impériaux américains à travers le monde. Il est essentiel de reconnaître que les mêmes entreprises qui développent des systèmes d’IA pour des applications civiles utilisent également cette technologie à des fins meurtrières. L’alignement d’OpenAI sur la rhétorique anti-chinoise et les justifications impérialistes de l’administration Biden est préoccupant. L’utilisation de l’IA à des fins de mort et de destruction soulève des questions fondamentales sur les implications éthiques de ces développements technologiques et sur les motivations réelles derrière la course à l’armement en matière d’IA. En conclusion, l’avancement de l’IA dans le contexte militaire présente un danger croissant pour la paix et la sécurité mondiales. Il est crucial que nous examinions attentivement les implications de ces développements et que nous nous engageons dans des débats éthiques approfondis sur l’utilisation de l’IA dans les systèmes d’armes et les conflits. Société