Blog

Anthropic vs OpenAI : la guerre du Pentagone et les 'mensonges' de Sam Altman

Dario Amodei, CEO d’Anthropic, a qualifié les communications d’OpenAI autour de leur contrat avec le Département de la Défense américain de « mensonges purs et simples ». Ce n’est plus un désaccord corporate — c’est une guerre ouverte entre les deux leaders de l’IA, avec le Pentagone comme champ de bataille.

Ce qui s’est passé

TL;DR : Anthropic avait un contrat de 200M$ avec le DoD, a exigé des garde-fous éthiques, le Pentagone a refusé. OpenAI a signé dans la foulée — et Anthropic accuse OpenAI de mentir sur les conditions.

La séquence :

  1. Anthropic détenait un contrat de 200M$ avec le Département de la Défense
  2. Anthropic a exigé des garanties : pas de surveillance domestique de masse, pas d’armement autonome
  3. Le Pentagone a refusé ces conditions
  4. Anthropic a tenu bon et perdu le contrat
  5. OpenAI a signé un accord permanent avec le DoD
  6. Amodei a qualifié les communications d’OpenAI de « mendacious » (mensonger) dans un mémo interne

Pendant ce temps, Sam Altman à la conférence Morgan Stanley : « Le gouvernement doit être plus puissant que les entreprises ». Amodei réplique qu’Anthropic n’a pas fait de « louanges style dictateur à Trump ».

Pourquoi c’est un tournant pour l’industrie

TL;DR : Pour la première fois, deux entreprises IA s’affrontent publiquement sur l’éthique militaire. Le marché choisit son camp.

Les conséquences sont déjà visibles :

  • ChatGPT perd 2.5M d’abonnés en 48h, +295% de désinstallations
  • Le mouvement #QuitGPT s’organise via quitgpt.org
  • Anthropic frôle les 20 milliards de revenus annualisés — la position éthique paie
  • Nvidia se désengage de ses investissements dans OpenAI ET Anthropic (Jensen Huang)

Le marché vote avec son portefeuille. Et pour l’instant, l’éthique gagne.

Ce que ça signifie pour les entreprises

TL;DR : Le choix de votre fournisseur IA est devenu un choix politique. Préparez-vous à le justifier.

  • Due diligence fournisseur — vos clients, vos employés et vos régulateurs vont poser la question : « Pourquoi utilisez-vous OpenAI/Anthropic/autre ? »
  • Risque de réputation — s’associer à un fournisseur controversé a un coût. Le #QuitGPT montre que les utilisateurs sanctionnent
  • Diversification obligatoire — ne dépendez pas d’un seul fournisseur. Les contrats militaires, les sanctions, les changements de politique peuvent couper l’accès du jour au lendemain
  • Clause éthique contractuelle — exigez des garanties écrites sur l’usage de vos données

Questions fréquentes

OpenAI a-t-il vraiment menti ?

Selon Dario Amodei, oui. Il qualifie les communications d’OpenAI de « mendacious » — un terme juridiquement lourd qui signifie intentionnellement trompeur. Le point de friction : OpenAI aurait présenté son deal militaire comme assorti de garde-fous éthiques similaires à ceux d’Anthropic, alors que les conditions sont fondamentalement différentes.

Anthropic est-il vraiment plus éthique qu’OpenAI ?

Anthropic a démontré par les actes : refus du contrat DoD quand les conditions éthiques n’étaient pas remplies, perte d’un contrat de 200M$. Mais Anthropic a aussi proposé Claude pour des essaims de drones (Bloomberg, mars 2026). La réalité est nuancée — Anthropic trace des lignes plus strictes, mais n’est pas absent du militaire.

Quel impact pour les entreprises françaises ?

L’impact principal est la prise de conscience : votre fournisseur IA a des engagements géopolitiques qui peuvent affecter votre business. Une entreprise française soumise au RGPD doit évaluer si les données traitées par son fournisseur IA sont exposées à des usages militaires ou de surveillance.


Vous voulez auditer votre dépendance aux fournisseurs IA et construire une stratégie résiliente ? Contactez BubbleStone AI pour un diagnostic gratuit.