C’est un bras de fer sans précédent dans le monde de la technologie. D’un côté, le Département de la Défense américain — le Pentagone — qui exige un accès illimité à l’une des intelligences artificielles les plus puissantes du monde. De l’autre, Anthropic, une entreprise californienne qui dit non, au risque de tout perdre. Derrière ce face-à-face entre costumes militaires et hoodies de la Silicon Valley se jouent des questions qui dépassent largement les frontières américaines : qui contrôle l’IA ? À quelles fins ? Et avec quelles conséquences pour le reste du monde ?
Un contrat de 200 millions de dollars… et une ligne rouge
Pour comprendre l’affaire, il faut remonter à juillet 2025. Le Pentagone signe alors des contrats pouvant atteindre 200 millions de dollars chacun avec quatre grandes entreprises d’intelligence artificielle (IA) : Anthropic, OpenAI, Google DeepMind et xAI — la société d’Elon Musk. L’objectif : intégrer ces IA de pointe dans les opérations militaires américaines, de l’analyse du renseignement à la planification des missions en passant par la cyberdéfense.
Anthropic occupe une place particulière dans ce dispositif. Son modèle d’IA, Claude, est le premier et seul à avoir été déployé sur les réseaux classifiés (secrets) de l’armée américaine. Un privilège technologique — et commercial — considérable. Mais cette position enviable vient avec une condition non négociable inscrite dans le contrat : Claude ne peut pas être utilisé pour la surveillance de masse des citoyens américains ni pour des armes entièrement autonomes, c’est-à-dire des systèmes capables de sélectionner et d’éliminer des cibles sans intervention humaine.
Ce que veut le Pentagone — et ce qu’Anthropic refuse
Début 2026, l’administration Trump, par la voix du secrétaire à la Défense Pete Hegseth, change les règles du jeu. Le Pentagone exige désormais que toutes les entreprises d’IA partenaires acceptent un usage dit « tout usage légal » — autrement dit, que l’armée puisse utiliser ces technologies comme bon lui semble, sans restrictions imposées par les entreprises privées. OpenAI, Google et xAI s’y plient. Anthropic, non.
Pourquoi ce refus ? Dario Amodei, le PDG (Président-Directeur Général) d’Anthropic, avance deux arguments centraux :
1. La surveillance de masse est incompatible avec les valeurs démocratiques. Même si certaines pratiques sont aujourd’hui légalement permises aux États-Unis — comme l’achat de données de navigation ou de déplacements de citoyens sans mandat judiciaire —, l’IA rend possible une chose inédite et dangereuse : assembler automatiquement des millions de données éparpillées pour dresser un portrait complet de n’importe quelle personne, à grande échelle. La loi n’a pas encore rattrapé cette réalité technologique.
2. L’IA actuelle n’est pas assez fiable pour piloter des armes létales sans supervision humaine. Confier à une machine la décision de vie ou de mort — sans qu’un humain valide l’acte — représente un risque inacceptable, tant pour les soldats que pour les civils. Amodei a même proposé de travailler conjointement avec le Pentagone pour améliorer ces systèmes, sans obtenir de réponse favorable.
« Nous ne pouvons pas en conscience accepter leur demande. »
— Dario Amodei, PDG d’Anthropic, 27 février 2026
L’escalade : sanctions, menaces et décret présidentiel
Face au refus d’Anthropic, la réponse de l’administration Trump est brutale. Le secrétaire Hegseth fixe un ultimatum : accepter les conditions avant le vendredi 28 février à 17h01, heure de la côte Est. Puis les menaces s’accumulent :
➤ Désigner Anthropic comme « risque pour la chaîne d’approvisionnement » (supply chain risk), une étiquette normalement réservée aux entreprises liées à des gouvernements étrangers hostiles — jamais à une entreprise américaine.
➤ Invoquer le Defense Production Act (loi sur la production de défense), qui permet au gouvernement de forcer des entreprises privées à coopérer dans l’intérêt national, en écartant leurs propres règles.
Amodei pointe lui-même la contradiction : l’une de ces menaces le présente comme un danger pour la sécurité nationale, l’autre reconnaît que Claude est indispensable à cette même sécurité.
Le vendredi 28 février, Donald Trump tranche via une publication sur son réseau social Truth Social : toutes les agences fédérales et les contractants militaires doivent immédiatement cesser tout commerce avec Anthropic. Le Pentagone dispose de six mois pour trouver un remplaçant. Dans la foulée, OpenAI annonce avoir conclu un accord avec le Pentagone pour déployer ses modèles sur les réseaux classifiés — occupant ainsi le vide laissé par Anthropic.
Et pour nous — Afrique et diaspora — qu’est-ce que ça change ?
On pourrait croire que cette querelle entre une entreprise californienne et un gouvernement américain ne nous concerne pas. Ce serait une erreur.
D’abord, une question de données et de surveillance. Les outils d’IA développés aux États-Unis sont utilisés partout dans le monde — y compris par des gouvernements africains, des organisations internationales, des entreprises de la diaspora. Si la tendance s’installe de lever les restrictions éthiques sur ces technologies pour usage militaire, qui garantit que les mêmes principes s’appliqueront à leur déploiement hors des frontières américaines ? L’Afrique a déjà connu, et connaît encore, des formes de surveillance technologique importées de l’extérieur, souvent sans débat démocratique local.
Ensuite, une question de précédent. Quand la première puissance mondiale normalise l’idée qu’un État peut forcer une entreprise privée à effacer ses garde-fous éthiques au nom de la sécurité nationale, elle envoie un signal fort à tous les gouvernements de la planète. Ce précédent pourrait être invoqué demain par n’importe quel régime autoritaire pour exiger la même chose de ses fournisseurs technologiques.
Enfin, une question de gouvernance mondiale de l’IA. Nos voix — africaines, de la diaspora, du Sud global — sont quasi absentes des grandes négociations qui définissent les règles d’utilisation de ces technologies. Ce bras de fer entre Anthropic et le Pentagone se règle entre Américains, pour des intérêts américains. Pendant ce temps, les impacts se feront sentir globalement. Il est urgent que nos sociétés civiles, nos intellectuels, nos décideurs s’emparent de ces enjeux.
Ce que cette affaire révèle sur l’IA et le pouvoir
Au fond, ce conflit pose une question fondamentale : qui doit fixer les limites éthiques de l’intelligence artificielle ? Les entreprises qui la créent ? Les gouvernements qui l’achètent ? Les citoyens qui la subissent ?
Le Pentagone argue qu’une entreprise privée ne peut pas imposer ses conditions à une démocratie et à son armée. Anthropic répond qu’il existe des usages trop dangereux pour être autorisés, même légalement, et que personne — pas même un État — ne devrait pouvoir les imposer à un fournisseur.
Les deux positions ont une logique. Mais ce qui manque dans ce débat — comme dans presque tous les grands débats sur la régulation de l’IA — c’est une voix qui représente le reste du monde. Celle des populations qui ne fabriquent pas ces outils, ne les achètent pas en milliards de dollars, mais qui en vivront les conséquences.
Pour aller plus loin
Anthropic a annoncé son intention de contester en justice la désignation de « risque pour la chaîne d’approvisionnement ». Le débat sur la régulation de l’IA à usage militaire est loin d’être clos. À suivre.






































