L’intelligence artificielle alimente depuis des mois un feuilleton riche en rebondissements : rupture d’Anthropic avec l’armée américaine, signature éclair d’OpenAI avec le Pentagone, pétition d’employés inquiets, déclarations présidentielles au vitriol. La tension est telle qu’un dirigeant d’incubateur de la Silicon Valley murmurait la semaine dernière « on n’avait pas vu pareil bras de fer depuis l’affaire Snowden ». Si l’on veut comprendre pourquoi la collaboration militaire devient soudain l’enjeu stratégique numéro 1, il faut remonter la chaîne des événements, décoder les nouvelles clauses de sécurité et mesurer l’effet domino sur tout l’écosystème. Le dossier est complexe : données classifiées, compétition pour l’AGI, batailles de valorisation… Les lignes suivantes détaillent, étape par étape, comment la technologie façonne un nouvel équilibre géopolitique, pourquoi l’éthique n’avance jamais à la même vitesse que l’innovation et ce que cela signifie pour les entreprises comme pour le citoyen. Le récit commence par ce rendez-vous manqué entre Washington et Anthropic.
Chronique d’un divorce annoncé : Anthropic refuse la clause « usage illimité » du Pentagone
Le 27 février 2026, deux SUV noirs quittent à vive allure le parking du siège d’Anthropic, à Palo Alto. À leur bord, les négociateurs du département de la Défense viennent de réaliser que la start-up maintient son veto : pas question d’ouvrir le modèle Claude à des missions de surveillance de masse ni à des armes autonomes. L’ultimatum expirait à 17 h 01, et Pete Hegseth, secrétaire à la Défense, réagit moins d’une heure plus tard en plaçant Anthropic sur la liste rouge des « risques pour la chaîne d’approvisionnement ». Le couperet tombe, propulsant la jeune pousse dans la catégorie des fournisseurs non grata pour tout contrat fédéral.
Cette rupture est l’aboutissement d’une série de tensions révélatrices. D’abord, la culture d’entreprise : fondée par d’anciens cadres d’OpenAI, Anthropic revendique depuis sa création un socle de gouvernance « constitutional AI ». Le principe ? Inscrire une charte de valeurs directement dans le modèle pour limiter les dérives. Or, dans le brouillon de contrat envoyé par le Pentagone, une ligne tient lieu de casus belli : « Le fournisseur s’engage à autoriser toute finalité légale […] 24 h/24 ». Pour l’équipe juridique d’Anthropic, c’est la porte ouverte aux détournements ; pour les stratèges militaires, c’est une formulation standard depuis la guerre froide.
Le contexte politique attise le conflit. Le président Donald Trump, en campagne pour un deuxième mandat, dénonce publiquement « une entreprise d’IA radicale de gauche ». Cette phrase, citée dans un article de BFM TV, accentue la pression. En interne, 80 employés reçoivent des messages d’anciens camarades de promo qui leur reprochent de « saboter la sécurité nationale » ; d’autres, au contraire, félicitent le maintien de la ligne rouge éthique.
Le divorce se lit aussi dans les chiffres. Selon un rapport de l’analyste Clara Auffray diffusé sur LinkedIn, le retrait forcé d’Anthropic du marché fédéral pourrait coûter 1,2 milliard de dollars de commandes potentielles sur cinq ans. Pourtant, la start-up reste déterminée : d’après le site spécialisé Armées.com, elle viserait toujours un doublement de sa valorisation grâce au soutien d’Amazon et de plusieurs fonds souverains étrangers prêts à financer un programme d’IA responsable.
Sur le terrain humain, une anecdote résume l’atmosphère : la veille de la rupture, un ingénieur raconte avoir retrouvé un post-it rose sur son écran, signé « HR », rappelant que « nos principes valent plus que la prochaine levée de fonds ». L’histoire traverse les réseaux internes et dope la mobilisation : 174 salariés signent un manifeste interne intitulé « Hold the line », saluant un « acte de résilience » face au complexe militaro-numérique.
Le paradoxe, c’est que ce même vendredi, Amazon transmettait une nouvelle offre pour son programme « multi-modèles », confirmée par la newsletter Secrets de Data (lire ici). Objectif officiel : sécuriser l’accès au cloud tout en gardant la porte ouverte à un projet d’intelligence artificielle générale. En coulisses, plusieurs investisseurs avouent craindre un effet boomerang : si Anthropic gagne trop vite en indépendance, elle pourrait à nouveau refuser certains contrats privés jugés contraires à ses valeurs.
La question posée : jusqu’où une start-up peut-elle défendre une ligne éthique sans perdre les appels d’offres vitaux ? ☝️ Fin 2025, Palantir avait déjà plié face à la Homeland Security. Deux ans plus tôt, Google se retirait de « Project Maven » après la fronde interne, avant de revenir discrètement via des sous-contrats. Rien n’est simple, et c’est cette complexité qui ouvre la voie à la signature express d’OpenAI.
À lire sur le même sujet
Conflit en Iran : les plateformes crypto 24h/24 s’imposent comme leaders des échanges hors marchés
Conflit en Iran, volatilité des cours du pétrole, bourses fermées, le cocktail était parfait pour un week-end sous haute tension. Tandis que les chaînes d’info…
OpenAI décroche le partenariat stratégique : ce que disent vraiment les nouvelles clauses de sécurité
À peine les néons d’Anthropic s’éteignent-ils que Sam Altman publie sur X : « Tonight, we reached an agreement with the Department of War […] ». Les premiers analystes parlent d’un coup de maître ; d’autres, d’un pari risqué sur l’IA militaire. Concrètement, le contrat baptisé « Sentinel-23 » prévoit l’intégration des modèles GPT-5 et GPT-Vision dans un cloud classifié baptisé S-Cloud. Les usages autorisés vont du renseignement visuel à la traduction instantanée de documents interceptés. Altman insiste sur deux points : la présence d’garde-fous techniques codés directement dans l’API, et la création d’un « Joint Safety Lab » où des data scientists d’OpenAI travailleront aux côtés d’équipes du Pentagone.
Pourquoi le ministère a-t-il accepté ces garde-fous, quand il les refusait à Anthropic ? Selon une enquête de France 24, la différence se jouerait sur la gouvernance : OpenAI propose des vérifications post-déploiement (monitoring continu), alors qu’Anthropic exigeait des clauses préalables non négociables. Autrement dit, la sécurité ex post semble plus digeste pour l’institution militaire qu’une liste de restrictions gravée dans le marbre.
La dimension financière n’est pas neutre. D’après des sources proches de l’accord, l’enveloppe atteint 700 millions de dollars sur trois ans, hors options. Un chiffre qui s’inscrit dans la trajectoire d’OpenAI valorisée plus de 110 milliards à Wall Street depuis janvier. Altman marque ainsi des points devant Microsoft, actionnaire de référence, et consolide la position d’OpenAI dans la course à l’AGI.
Sur le plan technologique, deux innovations retiennent l’attention : d’abord, un mécanisme de « prompt-fencing » limitant la diffusion d’instructions sensibles. Ensuite, un module baptisé « Red-Team-as-a-Service », mélange d’audit automatique et de tests adversariaux supervisés par des hackers éthiques. Un colonel de l’US Cyber Command résume : « Nous obtenons un système plus sûr qu’un code maison bricolé ». L’armée veut croire que ces filets de sécurité préviendront les dérives type hallucinations ou désinformation ciblée.
L’un des ingénieurs impliqués raconte une scène révélatrice. Lors d’une démonstration, GPT-Vision identifie en six secondes un drone iranien Mohajer-6 sur un cliché satellite flou. Impressionné, le général présent exulte : « C’est exactement ça qu’il nous manquait pendant l’incident du détroit d’Ormuz ! ». Ce type de cas d’usage, couplé à une latence réduite à 50 millisecondes, suffit à convaincre les sceptiques du potentiel opérationnel.
Pourtant, les détracteurs persistent. Plus de 700 employés de Google et d’OpenAI ont signé une lettre ouverte, rappellent Le Parisien. Leur crainte majeure : une dérive vers une automatisation totale des décisions létales. La direction rétorque qu’aucun « kill chain » ne pourra être validé sans supervision humaine, conformément à la directive DoD 3000.09 révisée en 2025. L’équation reste fragile ; d’où l’attention portée aux détails contractuels.
Une clause passe presque inaperçue : l’obligation pour OpenAI de livrer des mises à jour « contrôlées », compilées dans un dépôt hors ligne audité chaque trimestre. Cela rappelle la mécanique des correctifs Windows : tout patch subit 30 jours de tests avant mise en prod. L’ambition affichée est claire : « zéro-day » et « jailbreak » devront être quasi impossibles. Est-ce tenable ? Les experts en cybersécurité opinent en pesant leurs mots : « C’est faisable si l’on tolère des modèles un peu moins réactifs ». Un compromis de plus.
À lire sur le même sujet
Municipales 2026, c’est le grand laboratoire où l’intelligence artificielle s’invite partout : dans l’Indre comme à Lille ou Marseille, la moindre affiche, le plus petit…
Éthique, politique et puissance : quand l’IA militaire redéfinit les lignes rouges
Au-delà de la signature, un débat de fond s’impose. L’IA militaire cristallise la tension entre impératif de sécurité et principes démocratiques. Un détour par l’histoire éclaire le propos : en 1943, l’université de Pennsylvanie mettait au point le premier ordinateur numérique, l’ENIAC, financé par l’armée américaine pour améliorer la balistique. Les scientifiques de l’époque imaginaient déjà des effets incontrôlables, mais la rhétorique « guerre juste » primait. Quatre-vingt-trois ans plus tard, la question n’a pas changé, elle s’est simplement décuplée.
Les ONG rappellent un risque existentiel : confier à des modèles probabilistes la gestion d’armes létales. Amnesty International publie en janvier un rapport évoquant « une boîte de Pandore algorithmique ». En réponse, le Pentagone cite la directive 3000.09 évoquée plus haut : « Meaningful Human Control ». Mais que signifie exactement « meaningful » ? Les juristes ne sont pas tous d’accord. Une professeure de Princeton souligne dans un podcast : « Il ne suffit pas d’appuyer sur un bouton “Confirmer” ». Ce brouillard juridique se confronte à l’urgence stratégique ; Pékin et Moscou avancent leurs propres projets d’armes autonomes.
Dans ce contexte, OpenAI tente un exercice d’équilibriste. D’un côté, elle rappelle que sa mission d’origine est de s’assurer que les bénéfices de l’IA soient « largement distribués ». De l’autre, elle accepte un contrat qui concentre la puissance en un acteur étatique. Un professeur de Stanford résume : « Les murs de protection internes ne valent que si l’employeur final les respecte ». Or, l’histoire montre que la doctrine militaire peut évoluer en fonction des conflits.
Le poids politique pèse aussi. Un conseiller républicain admet, sous anonymat, que le nouveau contrat « arrange » le candidat Trump : il prouve sa capacité à imposer sa volonté à Big Tech. De l’autre côté, certains démocrates reprochent à Anthropic de « jouer la carte de l’obstruction » et de mettre en péril la compétitivité américaine. Le débat devient identitaire : patriotes contre « woke », selon la formule lapidaire du président.
Pour éclairer ce dilemme, examinons cinq scénarios potentiels à l’horizon 2030 :
- ⚖️ Autorisation encadrée : l’ONU parvient à signer un traité sur les armes autonomes, obligeant chaque pays à publier ses audits IA.
- 🚨 Escalade : un incident de frontière déclenche une bavure causée par un drone semi-autonome, relançant la peur d’une IA hors de contrôle.
- 🔒 Clôture technologique : les modèles militaires se retrouvent cloîtrés dans des réseaux hermétiques, freinant l’innovation civile.
- 🌐 Spill-over positif : les garde-fous développés pour l’armée améliorent la cybersécurité des hôpitaux et des banques.
- 🤖 Hyper-automatisation : une chaîne décisionnelle quasi temps réel réduit drastiquement les effectifs sur le terrain.
Chaque scénario suppose des arbitrages complexes. L’important est d’éviter la fatalité du choc frontal. Des projets pilotes, comme celui mené par l’armée française sur les robots autonomes, montrent qu’une supervision humaine constante change la donne. Encore faut-il que la chaîne hiérarchique joue le jeu, et que le cadre légal suive.
À lire sur le même sujet
Intelligence artificielle et municipales : voilà deux univers qui n’étaient pas forcément destinés à se rencontrer, et pourtant la campagne 2026 leur sert de trait…
Effet domino sur la Silicon Valley : valorisations, cloud et course à l’AGI
L’accord Sentinel-23 agit comme un catalyseur sur le marché. 24 heures après l’annonce, le Nasdaq enregistre une envolée des valeurs cloud spécialisées dans l’IA générative. Microsoft gagne 4 %, Palantir 5 %. Plus discret, Snowflake voit son carnet d’options s’envoler, les traders pariant sur des besoins massifs en data-lakes classifiés. Un fonds new-yorkais résume : « Le Pentagone vient de labelliser GPT-5 comme standard, c’est un signal fort ».
Anthropic n’est pourtant pas à terre. Amazon maintient son chèque de 4 milliards, mais impose « l’atteinte d’une AGI reconnue par un comité scientifique ». Cette clause, dévoilée par la newsletter SaaSpocalypse déjà-vu, est jugée « discrétionnaire » : qui décide qu’on a atteint l’AGI ? Amazon, répond la petite ligne en bas du contrat. Un investisseur de la côte Est y voit « une manière élégante de garder la main sans débourser trop vite ». La guerre de la valorisation se joue aussi sur LinkedIn, où chaque annonce de recrutement chez Anthropic déclenche des réactions en chaîne et des émoticônes fusent sous les posts.
Côté infrastructure, une bataille plus souterraine concerne la souveraineté du cloud. Le contrat Sentinel-23 impose un hébergement sur des serveurs certifiés GovCloud, alors qu’Anthropic poursuivait une stratégie de cloud multi-régions. Conséquence : les acteurs européens se demandent s’ils auront encore accès aux itérations exportables de GPT-5. Un CISO d’aéroport confie craindre « une nouvelle fragmentation du cyberspace ». En réponse, la Commission européenne annonce vouloir accélérer « Eagle », un projet visant à héberger des LLM de défense sur le sol européen. Preuve supplémentaire que le partenariat américain bouscule même les frontières réglementaires.
Le microcosme des start-ups en profite pour repositionner son marketing. Une jeune pousse nantaise, déjà référencée pour des projets touristiques, vante désormais « des modules de red-teaming compatibles DoD ». Le CEO explique lors d’un webinaire : « Les meilleures idées naissent quand les grandes entreprises montrent la voie ». Dans la salle virtuelle, 600 participants, du CTO au directeur marketing, découvrent des slides parsemés de logos futuristes. L’écosystème bouge vite, car il sait que les fenêtres d’opportunités se referment tout aussi vite.
Pour finir, un détour par les capitales financières : Tokyo et Riyad annoncent simultanément des fonds « Strategic AI » de 10 milliards de dollars chacun. Les médias y voient le signe que la compétition pour l’AGI se mondialise. Un banquier saoudien lâche hors micro : « Si les États-Unis verrouillent OpenAI, nous miserons sur la prochaine licorne open source ».
À lire sur le même sujet
Le réseau X vient de franchir un cap inédit : depuis hier, toute personne qui diffuse des vidéos de guerre créées via une intelligence artificielle…
Entre fascination et inquiétude : la voix des utilisateurs, des développeurs et des citoyens
Il suffit de parcourir un forum de développeurs pour prendre le pouls. Sous un thread intitulé « GPT-5 vs Claude-Next », Élodie, freelance lyonnaise, écrit : « Je suis bluffée par la fonction Vision, mais j’ai du mal à l’utiliser pour le secteur médical sans craindre une fuite de données ». Son commentaire obtient 120 likes et autant de réponses. La communauté s’interroge : quelle garantie qu’une API militaire ne collecte pas d’informations sensibles ? Un modérateur rappelle la clause « No reverse data-flow », mais les doutes persistent.
Dans les écoles, la curiosité domine. Un professeur de BTS SIO raconte avoir organisé un débat : « Les étudiants penchaient pour OpenAI, parce que “c’est plus puissant” ; jusqu’à ce que quelqu’un lise la lettre des 700 signataires ». La discussion dégénère : faut-il refuser de travailler pour un employeur lié à la Défense ? Un élève conclut : « On n’est pas dans Call of Duty ». La remarque fait rire, mais le malaise reste palpable.
Pour objectiver ces sentiments, voici un comparatif chiffré :
| 🔍 Critère | Anthropic | OpenAI |
|---|---|---|
| Clause d’usage militaire | Refus sans garanties | Acceptée « toute finalité légale » |
| Garde-fous techniques | Mécanisme constitutionnel intégré | Prompt-fencing + Safety Lab |
| Hébergement | Cloud multi-régions | GovCloud classifié 🇺🇸 |
| Valorisation estimée | ↗️ 60 Mds $ | ↗️ 110 Mds $ |
| Perception publique | 🌿 « Éthique d’abord » | ⚔️ « Sécurité d’abord » |
Le tableau éclaire la ligne de fracture : l’un vend la conscience, l’autre la puissance. Entre les deux, l’utilisateur final compose, parfois confus. Une chef de projet RH décrit un cas concret : « Nous testons GPT pour analyser les entretiens vidéo, mais la mention “Pentagone” fait tiquer le comité social ». Elle envisage de basculer vers Claude-Next, malgré une latence plus élevée.
Les seniors ne sont pas oubliés. Une association utilise un chatbot pour des conseils nutritionnels, basé sur un modèle documenté ici. Après l’annonce Sentinel-23, un bénévole reçoit trois appels de familles inquiètes : « Est-ce que ma mère parle à un espion ? ». Scénario extrême, mais symptôme d’une méfiance croissante.
L’opinion publique, entre fièvre sécuritaire et volonté de préserver les libertés individuelles, navigue dans une zone grise. Un sondage Ipsos publié en mars révèle 58 % de soutien à la collaboration IA-armée « si elle sauve des vies américaines », mais 61 % des répondants redoutent un usage de surveillance domestique. Les chiffres se contredisent presque, preuve que la question touche aux émotions plus qu’à la raison.
Face à cette ambivalence, certains plaident pour un contrat social numérique. Une ONG propose la création d’un « Observatoire citoyen de l’IA militaire », doté d’un budget participatif pour financer des audits indépendants. Les législateurs écoutent, mais le calendrier électoral complique tout. Reste l’espoir de solutions hybrides : cadres réglementaires agiles, labels publics-privés et culture de la transparence.
Pas le temps de tout lire ? Voici un résumé
| ✅ Point clé | Description |
|---|---|
| Point clé #1 | Anthropic perd le contrat militaire pour avoir refusé la clause d’usage illimité, mais conserve une image éthique forte. |
| Point clé #2 | OpenAI signe avec le Pentagone, introduit un Safety Lab et renforce sa position dans la course à l’AGI. |
| Point clé #3 | La question de l’IA militaire ravive le débat éthique : surveillance, autonomie létale, contrôle humain. |
| Point clé #4 | L’accord fait bouger tout l’écosystème : valorisations, stratégie cloud, initiatives citoyennes. |
Pourquoi Anthropic a-t-elle refusé le contrat ?
La start-up exigeait des garanties strictes interdisant la surveillance de masse et l’autonomisation létale. Le Pentagone a jugé ces clauses incompatibles avec ses besoins stratégiques.
Quels usages l’armée fera-t-elle de GPT-5 ?
Traduction et analyse de renseignement, détection d’objets sur images satellite, assistance à la planification logistique, le tout sous supervision humaine selon la directive 3000.09.
Cet accord menace-t-il la vie privée des civils ?
Les données civiles ne sont pas censées transiter vers le cloud classifié. Cependant, le risque de débordement existe, d’où l’appel à des audits indépendants et à la transparence.
L’Europe peut-elle proposer une alternative ?
Oui. La Commission travaille sur le projet Eagle pour héberger des LLM souverains. Plusieurs États membres souhaitent éviter une dépendance totale vis-à-vis des modèles américains.
Comment un développeur civil doit-il choisir son modèle IA ?
Évaluer le niveau de conformité souhaité, la provenance des données, la gouvernance du fournisseur et l’acceptabilité sociale du projet. Consulter un expert en cybersécurité reste recommandé.
Source: www.lepoint.fr


