Anthropic, le Pentagone et la guerre sans responsabilité

Trump a banni Anthropic de toutes les agences fédérales pour avoir refusé que Claude serve à la surveillance de masse et aux armes autonomes. Le même week-end, l'armée utilisait Claude pour frapper l'Iran. On punit l'entreprise d'un côté, on dépend de sa technologie de l'autre. Une crise de souveraineté qui concerne directement l'Europe.

Zone Habitable
12 min ⋅ 02/03/2026

Le 27 février 2026, l'administration Trump a classé Anthropic - l'entreprise derrière Claude, l'un des modèles d'IA les plus avancés au monde - comme “menace pour la chaîne d'approvisionnement” de la sécurité nationale américaine. Un label jusque-là réservé aux adversaires étrangers : Huawei, ZTE, Kaspersky. Jamais une entreprise américaine n'avait reçu cette désignation.

Ce qui s'est joué en quelques jours entre Washington et San Francisco dépasse très largement un différend contractuel. C'est la première collision frontale entre la souveraineté d'un État et les principes éthiques d'un fournisseur de technologie critique. Et les leçons de cet affrontement concernent directement l'Europe. Pour une chronologie détaillée des événements et une analyse comparée des termes des accords, je recommande la newsletter Cybernetica de Tariq Krim, qui a nourri la réflexion de cet article.


L'essentiel en 30 secondes

  • Le Pentagone exigeait d'Anthropic un accès sans restriction à Claude pour “tous les usages licites”. Anthropic a refusé de lever deux garde-fous : pas de surveillance de masse des citoyens américains, pas d'armes autonomes sans supervision humaine.

  • Le 27 février 2026, Trump a ordonné en un tweet le bannissement d'Anthropic de toutes les agences fédérales. Le Pentagone l'a classée “supply chain risk” - une désignation jamais appliquée à une entreprise américaine.

  • Le même soir, le Wall Street Journal révélait que Claude avait été utilisé pendant les frappes sur l'Iran. Et OpenAI signait un accord avec le Pentagone pour le remplacer, avec des garde-fous en apparence similaires mais juridiquement bien plus faibles.

  • La question est celle de l'intelligibilité : quand un LLM entre dans la chaîne de ciblage, on ne peut plus retracer le chemin de la décision. Tout principe de responsabilité (y compris pénale) disparaît.

  • Pour l'Europe, cette crise démontre qu'une dépendance à l'infrastructure IA américaine est une dépendance stratégique qui peut être coupée par un tweet présidentiel.

Les faits : deux lignes rouges, un ultimatum

Depuis juillet 2024, Claude était le seul modèle d'IA déployé sur les réseaux classifiés du Pentagone, via la plateforme Maven Smart System opérée par Palantir. En juillet 2025, le Pentagone avait attribué des contrats de 200 millions de dollars à quatre laboratoires d'IA - Anthropic, OpenAI, Google et xAI - pour développer des capacités d'IA au service de la défense nationale.

Le contrat d'Anthropic incluait deux garde-fous explicites :

  • interdiction d'utiliser Claude pour la surveillance de masse des citoyens américains,

  • et interdiction des armes autonomes sans supervision humaine.

Deux exceptions que Dario Amodei, le dirigeant d'Anthropic, qualifie “d’étroites” et qui, selon l'entreprise, n'ont jamais entravé l'utilisation opérationnelle de Claude par l'armée américaine.

Le Pentagone exigeait autre chose. Il voulait que tous les laboratoires d'IA autorisent l'usage de leurs modèles pour “tous les usages licites”, une formulation qui, du point de vue d'Anthropic, revenait à supprimer les deux garde-fous.

Le 24 février, le secrétaire à la Défense Pete Hegseth a posé un ultimatum : accès sans restriction avant le vendredi 27 février, 17h01, ou conséquences graves.

Anthropic a dit non.

Et n'a pas bougé. Pas d'un millimètre.

Malgré l'ultimatum, malgré les insultes publiques d'Emil Michael, malgré la menace du Defense Production Act, malgré la désignation “supply chain risk” qui peut potentiellement sévèrement nuire à son activité commerciale.

La réponse d'Anthropic, publiée après le bannissement, est sans ambiguïté :

No amount of intimidation or punishment from the Department of War will change our position on mass domestic surveillance or fully autonomous weapons.

L'entreprise a annoncé qu'elle contesterait la désignation en justice, la qualifiant de “legally unsound” et de “dangerous precedent for any American company that negotiates with the government”.

La mécanique de l'escalade

Le récit est linéaire : une entreprise refuse, un gouvernement punit.
Il masque une dynamique bien plus complexe. L'escalade a commencé bien avant l'ultimatum.

En janvier 2026, Claude a été utilisé dans l'opération de capture de Maduro via le Maven Smart System de Palantir.

Dans les semaines suivantes, des employés d'Anthropic ont posé à Palantir une question apparemment anodine : les politiques d'usage avaient-elles été respectées pendant l'opération ?

Le Pentagone a interprété cette question comme une tentative d'audit de ses opérations classifiées. C'est ce moment-là, et non le refus contractuel, qui a véritablement déclenché l'escalade.

  • Le 9 janvier, Hegseth signe un mémo “AI-First” ordonnant que les modèles d'IA soient utilisés “sans contraintes liées aux politiques d'usage”.

  • Le Pentagone commence à interroger ses sous-traitants (dont Boeing et Lockheed Martin) sur leur degré d'exposition à Anthropic.

  • Emil Michael, sous-secrétaire à la Défense pour la recherche, traite publiquement Amodei de “menteur” doté d'un “complexe de Dieu”.

  • Le 26 février, Amodei publie sa déclaration : les menaces du Pentagone sont “intrinsèquement contradictoires” : l'une classifie Anthropic comme risque sécuritaire, l'autre déclare Claude essentiel à la sécurité nationale.

Le vendredi 27 février, tout s’accélère :

  • Trump publie sur Truth Social l'ordre de bannir Anthropic de toutes les agences fédérales.

  • Hegseth publie la désignation “supply chain risk”.

  • Pendant ce temps, Emil Michael est encore au téléphone avec Anthropic pour proposer un dernier accord. Selon Axios, cet accord exigeait qu'Anthropic autorise la collecte de données sur les Américains : géolocalisation, historique de navigation, informations financières personnelles achetées à des courtiers en données. Le négociateur parlait encore quand la sanction est tombée.

Le fil Palantir : l'intermédiaire invisible

Un acteur central de cette histoire reste étrangement absent du récit public : Palantir.

  • C'est Palantir qui a ouvert à Anthropic la porte des réseaux classifiés.

  • C'est via le Maven Smart System de Palantir que Claude a servi pendant l'opération Maduro.

  • C'est à Palantir qu'un employé d'Anthropic a posé la question qui a fait basculer la situation.

  • Et c'est Palantir qui devra maintenant extraire Claude de la plateforme de bataille du Pentagone.

Palantir, c'est l'entreprise de Peter Thiel. Et comprendre le réseau Thiel, c'est comprendre pourquoi cette crise a pris la tournure qu'elle a prise.

Thiel a cofondé PayPal avec Elon Musk, puis Palantir en 2003, avec des racines dans In-Q-Tel, le fonds de capital-risque de la CIA.

Mais son influence sur l'administration Trump va bien au-delà d'un rôle de fournisseur.

  • C'est Thiel qui a présenté JD Vance à Donald Trump lors d'une première rencontre à Mar-a-Lago en février 2021.

  • C'est Thiel qui a financé la campagne sénatoriale de Vance en Ohio avec 15 millions de dollars - le plus gros don individuel jamais versé pour une élection sénatoriale américaine.

  • Et c'est Thiel qui a recruté parmi les principaux donateurs de Vance un certain David Sacks, ex-COO de PayPal, qui a contribué un million de dollars à la campagne et que Trump a nommé “AI and crypto czar” de la Maison-Blanche en décembre 2024.

Selon Bloomberg, plus d'une douzaine de personnes liées à Thiel - anciens employés de Palantir, gestionnaires de sa fortune, bénéficiaires de ses investissements - ont été intégrées dans l'administration Trump.

Les fameuses revolving doors.

  • Colin Carroll, ex-Anduril (entreprise cofondée par d'anciens de Palantir et dans laquelle Thiel est investisseur majeur), est devenu directeur de cabinet au Pentagone.

  • Vance est aujourd'hui vice-président des États-Unis.

  • Sacks est le “AI czar” qui supervise la politique d'IA au niveau fédéral.

  • Et Palantir est devenu l'ossature logicielle du Pentagone.

Les contrats fédéraux de l'entreprise sont passés de 541 millions de dollars en 2024 à 970 millions en 2025. En juillet 2025, l'US Army lui a accordé un contrat-cadre de 10 milliards de dollars sur dix ans. C’est le plus gros contrat jamais attribué à l'entreprise.

Le contrat Maven Smart System (celui qui exploite Claude, si vous avez bien suivi) a été relevé de 795 millions de dollars supplémentaires pour répondre à la demande croissante des commandements de théâtre.

Trump lui-même a déclaré lors d'un sommet IA : “We buy a lot of things from Palantir”.
L'action Palantir a bondi de 140% depuis l'élection de Trump.

Et ce n'est pas que militaire.

  • Palantir a construit ImmigrationOS pour l'ICE, un système de suivi des “auto-déportations” et de ciblage des arrestations, pour 30 millions de dollars.

  • L'administration Trump a demandé à Palantir de construire une base de données centralisée croisant les informations de l'ensemble des agences fédérales : sécurité sociale, fisc, immigration, santé.

Autrement dit : l'homme qui a façonné le vice-président, placé le “AI czar”, et dont l'entreprise est le passage obligé vers les réseaux classifiés, est aussi celui dont les outils sont déjà utilisés pour la surveillance intérieure des immigrants. Quand Anthropic pose la question des garde-fous contre la surveillance de masse, ce n'est pas un scénario hypothétique. C'est une description du présent.

Sans Palantir, aucun laboratoire d'IA n'accède aux réseaux classifiés. Palantir est la porte d'entrée. Et selon Axios, un officiel du Pentagone a reconnu que le démantèlement serait un “enormous pain in the ass” : Claude est profondément intégré dans les systèmes opérationnels, et la moindre modification sur des réseaux classifiés exige des mois de revalidation sécuritaire.

OpenAI : des mots qui ressemblent, mais pas les mêmes verrous

Quelques heures après le bannissement d'Anthropic, Sam Altman a annoncé qu'OpenAI avait conclu un accord avec le Pentagone pour déployer ses modèles sur les réseaux classifiés.

Les gros titres ont retenu : mêmes principes de sécurité, mêmes protections.
Des mots qui ressemblent, oui. Mais pas les mêmes verrous. Et la différence est structurelle.

  • Anthropic exigeait que les interdictions de surveillance de masse et d'armes autonomes soient inscrites comme clauses contractuelles explicites, opposables juridiquement, et allant au-delà du cadre légal existant, au motif que la loi n'a pas rattrapé les capacités de l'IA.
    C'est précisément le point central de la position d'Amodei : le gouvernement peut déjà, légalement, acheter des données de géolocalisation, des historiques de navigation, des informations financières personnelles. La loi n'interdit pas cette collecte.
    Ce qu'Anthropic voulait inscrire dans le contrat, c'est l'interdiction pour Claude d'assembler ces données en profils de surveillance - même quand aucune loi n'est techniquement violée.
    Le Pentagone a refusé. C'est ce refus qui a conduit au bannissement.

  • OpenAI a accepté ce qu'Anthropic a refusé.
    L'accord est formulé sur la base de “all lawful purposes”, la formulation exacte qu'Anthropic a jugée insuffisante et dangereuse. Altman affirme avoir “intégré les mêmes principes dans l'accord”, mais les détails publiés par OpenAI révèlent trois failles significatives.

  1. Première faille : l'Executive Order 12333.
    L'accord stipule que la collecte de données privées sera conforme à cet Executive Order, le texte qui, comme l'a relevé Mike Masnick de Techdirt, permet à la NSA de conduire de la surveillance sur des citoyens américains en interceptant des communications sur des lignes situées hors du territoire américain.
    C'est le mécanisme exact qui a rendu possible les programmes de surveillance révélés par Snowden.
    OpenAI l'inscrit comme garde-fou ; les experts en libertés civiles y voient une porte dérobée.

  2. Deuxième faille : les données publiques.
    Le contrat d'OpenAI interdit la collecte “non contrainte” d'informations privées des Américains. Mais il n'interdit pas explicitement la collecte et l'agrégation de données publiquement disponibles : posts sur les réseaux sociaux, données de géolocalisation commerciale, registres publics.
    C'est exactement le scénario qu'Anthropic redoutait : un LLM qui assemble des données individuellement anodines et légalement collectables en un portrait de surveillance complet, sans jamais violer techniquement la loi.

  3. Troisième faille : la distinction “oversight” vs. “responsibility”.
    Sur les armes, la différence entre Anthropic et OpenAI est celle entre “human oversight” et “human responsibility for the use of force”.
    Dans le premier cas, un humain autorise avant le tir.
    Dans le second, un humain est comptable après.
    Ce n'est pas une nuance sémantique : c'est la différence entre un verrou et une déclaration d'intention. OpenAI se protège en limitant le déploiement au cloud (pas d'edge computing, donc pas de drones), mais cette contrainte technique peut évoluer avec un simple avenant contractuel.

Altman a lui-même admis que l'accord avait été conclu dans la précipitation et que “les apparences ne sont pas bonnes”. Il a aussi reconnu qu'Anthropic “voulait peut-être plus de contrôle opérationnel que nous”.
Le même jour, OpenAI levait 110 milliards de dollars pour une valorisation de 730 milliards.

  • Anthropic a tenu bon et en paye le prix : une désignation sans précédent qui pourrait fortement troubler son activité commerciale.

  • OpenAI a cédé sur le fond en prétendant tenir bon sur la forme.
    C'est la différence entre une porte fermée à clé et une porte fermée avec un post-it “merci de ne pas entrer”.

Qui contrôle l'usage d'une technologie critique ?

Le Pentagone formule sa position avec une simplicité désarmante : une fois qu'il achète un outil, c'est à lui de décider comment l'utiliser, dans le cadre de ses propres standards et procédures.
Le droit existant interdit déjà la surveillance de masse et les armes entièrement autonomes. Pourquoi en rajouter ?

La réponse d'Anthropic touche au cœur du problème.

Amodei, dans sa déclaration du 26 février, rappelle que le gouvernement américain peut déjà acheter des données de géolocalisation, des historiques de navigation et des informations financières personnelles auprès de courtiers en données, sans mandat judiciaire. C'est une pratique que la communauté du renseignement elle-même reconnaît comme problématique et qui fait l'objet d'une opposition bipartisane au Congrès. L'IA rend possible l'assemblage automatique de ces données dispersées en un portrait exhaustif de la vie de n'importe quel citoyen, à grande échelle. C'est de la surveillance de masse, même si aucune loi en vigueur n'est techniquement violée.

La question n'est pas de savoir si la loi interdit la surveillance.
C'est de savoir si la loi sait ce qu'est la surveillance quand c'est une IA qui la fait.

Sur les armes autonomes, le raisonnement est similaire. Amodei ne s'oppose pas par principe aux armes autonomes : il considère que les systèmes d'IA actuels ne sont pas suffisamment fiables pour prendre des décisions de ciblage sans supervision humaine.
C'est un argument technique autant qu'éthique. Et c'est un argument que le Pentagone n'a jamais réfuté sur le fond.

De Gaza à l'Iran : quand l'IA entre dans la chaîne de mort

Le week-end du bannissement, une information a fait voler en éclats la lecture purement contractuelle de cette crise. Selon le Wall Street Journal, l'armée américaine a utilisé Claude pendant les frappes sur l'Iran… quelques heures à peine après que Trump a ordonné l'arrêt de tout usage d'Anthropic !
Le U.S. Central Command s'est servi du modèle pour l'évaluation de renseignements, l'identification de cibles et la simulation de scénarios de combat.

Le même jour, le même gouvernement bannissait l'entreprise et utilisait sa technologie pour frapper un pays souverain. Cela suggère que le conflit de la semaine précédente avec Anthropic - et cet ultimatum très serré posé par Hegseth - était peut-être lié à des considérations bien plus opérationnelles que ce que le récit public laissait entendre.

Ce n'est pas un cas isolé. Claude avait déjà été utilisé pour la capture de Maduro en janvier. Mais le précédent le plus éclairant vient d'ailleurs.

Depuis 2023, la guerre à Gaza a mis en lumière ce que devient l'IA quand elle entre dans la chaîne de ciblage militaire.

  • Des enquêtes de +972 Magazine ont révélé l'existence de Lavender, un système d'IA qui a identifié quelque 37 000 Palestiniens comme cibles potentielles d'assassinat.

  • Un second système, “Where's Daddy?”, suivait ces individus pour les bombarder quand ils rentraient chez eux, la nuit, auprès de leur famille.

Les officiers de renseignement israéliens interrogés par +972 ont témoigné que les recommandations de Lavender étaient approuvées en vingt secondes en moyenne, le temps de vérifier que la cible était un humain, sans examiner les données brutes ni comprendre le raisonnement de la machine.

Le résultat : des milliers de civils tués, des familles entières effacées, dans ce que des sources militaires ont décrit comme une “usine d'assassinats de masse”.

Il y a plus de dix ans, Michael Hayden, ancien directeur de la NSA et de la CIA, livrait cette phrase glaçante au sujet des assassinats ciblés par drones :

We kill people based on metadata.

Des métadonnées aux LLM, le saut est qualitatif. On tue toujours sur la base d'inférences probabilistes : on élimine quelqu'un qui ressemble statistiquement à une menace, pas quelqu'un dont la culpabilité a été établie. Les victimes civiles ne sont que des variables d'ajustement dans un calcul coûts-bénéfices.

Mais avec l'IA générative, on franchit un seuil supplémentaire : celui de l'intelligibilité.

On ne peut plus retracer le chemin logique qui mène du signal à la décision.

Un LLM n'est pas un algorithme dont on peut dérouler les étapes.
C'est une boîte noire statistique qui produit des sorties plausibles à partir de distributions de probabilités.

Quand cette boîte noire est insérée dans une chaîne de ciblage (évaluation du renseignement, identification des cibles, simulation de scénarios), tout principe de responsabilité disparaît.
Y compris pénale.
On ne peut plus dire qui a décidé, sur quelle base, ni pourquoi.
La machine produit, l'humain tamponne, le missile frappe.

C'est peut-être cela, plus que tout argument contractuel, qui attire le pouvoir : une guerre sans responsabilité traçable. Et c'est peut-être cela, précisément, qu'Anthropic refusait de rendre possible.

La réaction de l'industrie : solidarité de façade

Plus de 450 employés de Google et d'OpenAI ont signé une lettre ouverte intitulée “We Will Not Be Divided”, dénonçant la stratégie du Pentagone consistant à diviser les entreprises par la peur. Jeff Dean, chief scientist de Google, a affirmé que la surveillance de masse viole le Quatrième Amendement. Ilya Sutskever, cofondateur d'OpenAI devenu directeur de Safe Superintelligence, a salué la position d'Anthropic.

Mais Google, en tant qu'entreprise, n'a rien dit. Silence total.
L'entreprise qui avait abandonné Project Maven sous la pression de ses salariés en 2018 reste muette quand la même question revient en 2026, avec des enjeux incomparablement plus lourds.

Côté utilisateurs, la réaction a été plus bruyante.

Le mouvement #QuitGPT a explosé après l'annonce de l'accord OpenAI-Pentagone, avec plus de 700 000 utilisateurs abandonnant ChatGPT selon certaines estimations, et le hashtag dépassant les 36 millions de vues sur X. Claude a même dépassé ChatGPT dans l'App Store d'Apple le temps d'un week-end.

La docilité politique récompensée d'un côté, la résistance éthique punie de l'autre, et le marché des utilisateurs qui réagit à l'inverse du gouvernement.

Le contre-argument : la menace chinoise et le dilemme démocratique

La position d'Anthropic n'est pas sans critiques légitimes. Palmer Luckey, fondateur d'Oculus et d'Anduril, pose la question démocratique à front renversé : notre armée doit-elle être régulée par les élus ou par des dirigeants d'entreprise ? Des termes comme “vous ne pouvez pas cibler des civils innocents” semblent innocents, mais cachent des champs de mines moraux. Qui est un civil ? Qu'est-ce qui le rend innocent ? Le droit existant a des réponses. Des entreprises privées qui gèrent des profits et des relations publiques en auront de très différentes.

L'argument géopolitique pèse aussi. Les laboratoires chinois ont été accusés d'avoir distillé les modèles d'Anthropic et d'OpenAI. Ces copies circulent en open source, sans garde-fou, entre les mains de l'APL, de l'Iran, de chaque acteur hostile. Les entreprises américaines brident leur propre armée pendant que les adversaires s'entraînent sur des copies piratées de la même technologie.

Mark Minevich, conseiller IA auprès de gouvernements et de fonds souverains, rappelle que si la Chine démontre un système d'armes piloté par LLM sans humain dans la boucle, le fossé de capacité se mesurera en pertes humaines.

Le contre-argument mérite d'être entendu. Mais il ne répond pas à la question d'Amodei : ce que les critiques appellent “des protections qui existent déjà dans la loi” est précisément ce qu'il juge insuffisant face aux capacités nouvelles de l'IA.

Des obus ou du renseignement ?
La crise répond à la question.

Au printemps 2025, je posais la question de la finalité de l'effort militaire annoncé par le Président Macron.

Des sous dans l'armée, mais pour faire quoi ?
Des obus ? Des avions ? Des porte-avions ? Du renseignement ? Des usines de drones robustes aux champs de bataille ?

Je relevais que les faiblesses militaires françaises résidaient avant tout dans le renseignement - très dépendant des États-Unis - et dans l'équipement de projection, et que les flux d'investissement semblaient déconnectés des besoins identifiés.

La crise Anthropic-Pentagone apporte une réponse cinglante à cette question, et pas celle qu'on attendait.

Ce qui s'est joué en février 2026, c'est la démonstration que le renseignement militaire américain repose désormais sur un modèle d'IA développé par une entreprise privée.

Claude n'est pas un gadget périphérique : il est intégré au cœur du Maven Smart System, la plateforme qui centralise le renseignement militaire.

C'est Claude qui a été utilisé pendant l'opération Maduro.
C'est Claude que le Pentagone reconnaît comme irremplaçable à court terme - un officiel admettant que le démantèlement serait un cauchemar logistique.

Autrement dit : la première puissance militaire du monde dépend, pour ses opérations de renseignement classifiées, d'un fournisseur de technologie qu'elle vient de bannir.

Le Pentagone ne fabrique pas ses propres modèles d'IA. Il les achète. Et quand le fournisseur dit non, toute la chaîne vacille.

Que signifie cela pour la France et l'Europe ?
D'abord, que la question “obus ou renseignement” est mal posée.

Le renseignement n'est plus une catégorie distincte de l'armement : c'est l'infrastructure sur laquelle tout le reste s'appuie : sans capacité autonome de traitement de l'information par l'IA, les obus, les avions et les porte-avions sont des systèmes aveugles.

La guerre en Ukraine l'a démontré : la supériorité informationnelle - savoir où frapper, quand, et avec quelle précision - est le multiplicateur de force décisif.
Les drones ukrainiens ne sont efficaces que parce qu'ils sont guidés par du renseignement en temps réel.

Ensuite, que notre dépendance au renseignement américain, que je pointais il y a un an, est techniquement une dépendance à l'infrastructure numérique américaine.

Si la France ou l'Europe veut disposer d'une autonomie de renseignement, elle a besoin de modèles d'IA souverains déployables sur des réseaux classifiés.
Pas de briques logicielles louées à des entreprises californiennes que le gouvernement américain peut blacklister du jour au lendemain.

Or, où en sommes-nous ? L'Europe ne dispose d'aucun modèle d'IA de frontière comparable à Claude, GPT ou Gemini. Mistral, le champion français, reste loin des capacités nécessaires pour des applications militaires classifiées.

L'effort de guerre de 100 milliards d'euros dont on débat depuis un an serait peut-être mieux employé s'il intégrait le développement d'une capacité européenne d'IA pour le renseignement plutôt que de financer des équipements conventionnels dont la doctrine d'emploi dépend d'une infrastructure informationnelle que nous ne maîtrisons pas.

La question que je vous propose est donc : avons-nous les moyens de penser la guerre du XXIe siècle sans dépendre de fournisseurs qui peuvent être coupés par un tweet présidentiel ?

Ce que cela signifie plus largement pour l'Europe

Pour ceux qui s'intéressent à la souveraineté numérique européenne, cette crise est riche d'enseignements au-delà du seul domaine militaire.

  1. Premier constat : la dépendance technologique peut se transformer en instrument de coercition politique du jour au lendemain.
    Si le gouvernement américain peut blacklister une entreprise américaine valorisée 380 milliards de dollars pour un désaccord contractuel, que peut-il faire avec les fournisseurs européens qui dépendent de l'infrastructure cloud américaine ?
    La désignation “supply chain risk” ne vise pas seulement Anthropic, elle envoie un signal à toute entreprise qui envisagerait de négocier les conditions d'utilisation de sa technologie avec le gouvernement américain.

  2. Deuxième constat : l'absence de cadre réglementaire cohérent crée un vide que le rapport de force politique comble.
    L'EU AI Act tente de structurer les usages à haut risque, mais son approche par catégories est statique là où les capacités de l'IA sont dynamiques. Le problème qu'Amodei soulève (la loi ne sait pas ce qu'est la surveillance quand c'est l'IA qui la pratique) est un problème européen autant qu'américain.

  3. Troisième constat : le marché a réagi à l'inverse du gouvernement.
    Les utilisateurs ont massivement sanctionné OpenAI et soutenu Anthropic. Si l'éthique devient un différenciateur commercial, les entreprises européennes d'IA ont une carte à jouer, à condition de ne pas la réduire à un argument marketing.

Enfin, cette crise illustre le paradoxe fondamental de la souveraineté numérique à l'ère de l'IA.

Comme l'a formulé le Council on Foreign Relations : il faut se demander non seulement si un État peut être souverain sans accès illimité aux modèles d'IA les plus puissants, mais aussi si les citoyens restent souverains quand l'État déploie ces mêmes modèles sans contrainte au nom de leur sécurité.

Une question qui ne va pas disparaître

L'affrontement entre Anthropic et le Pentagone n'est pas un épisode isolé. C'est le premier acte d'un conflit structurel qui va s'approfondir à mesure que les systèmes d'IA deviennent plus capables et plus intégrés dans les fonctions régaliennes.

Anthropic a annoncé qu'elle contestera la désignation en justice. Même si elle obtient gain de cause, les dommages commerciaux pourraient être durables. Chaque directeur juridique d'une entreprise du Fortune 500 ayant un contrat avec le Pentagone va sans doute se poser la même question : est-ce que l'utilisation de Claude vaut le risque ?

Mais au-delà du sort d'une entreprise, c'est une question de civilisation qui se pose.

Nous construisons des systèmes capables d'assembler le portrait de n'importe quel citoyen à partir de données dispersées, de prendre des décisions de ciblage sur un champ de bataille, de transformer la relation entre un État et ses citoyens.

La question de savoir qui pose les garde-fous va définir la prochaine décennie :

  • les entreprises qui construisent ces systèmes,

  • les gouvernements qui les utilisent,

  • ou les législateurs qui n'ont pas encore rattrapé la technologie ?

En 2026, la résistance éthique se paye au prix fort.
Mais dans un monde où l'IA peut tout voir, tout assembler et tout décider, c'est peut-être l'absence de résistance qui coûtera le plus cher.

Zone Habitable

Par Matthieu de Cremoux

J'analyse les systèmes qui nous soutiennent.

Citoyen engagé et libre de tout parti politique, j'écris pour décrypter les conditions d'habitabilité du monde : climat, tech et démocratie.

Une approche pour tenter, ensemble, de "partager le réel".

Les derniers articles publiés