Un conflit stratégique oppose l’entreprise américaine Anthropic au Pentagone. En cause : les limites à imposer à l’intelligence artificielle dans le domaine militaire.
Dirigée par Dario Amodei, Anthropic développe des outils d’IA performants, mais avec des règles strictes. L’entreprise refuse notamment que ses technologies servent à créer des armes entièrement autonomes ou à mener certaines cyberopérations offensives sans contrôle humain.
Le Pentagone, lui, veut plus de liberté. Selon des sources, le secrétaire à la Défense Pete Hegseth aurait menacé d’utiliser une loi spéciale pour contraindre Anthropic à fournir ses services sans restrictions particulières. Le ministère estime qu’aucune entreprise privée ne doit fixer les limites opérationnelles de l’armée américaine.
Pourtant, Anthropic collabore déjà avec la défense américaine, notamment à travers des projets liés à Palantir Technologies. Mais si elle refuse d’assouplir ses règles, elle pourrait être exclue de la chaîne d’approvisionnement militaire, ce qui représenterait un coup dur pour son développement.
Au-delà d’un simple contrat, ce bras de fer soulève une question majeure : qui doit décider de l’usage de l’IA dans la guerre ? L’État, au nom de la sécurité nationale, ou les entreprises technologiques, au nom de l’éthique et de la responsabilité ?
Ce débat marque une étape importante dans la course mondiale à l’intelligence artificielle, où stratégie militaire, innovation et principes démocratiques s’affrontent désormais ouvertement.
Source: Bloomberg


