La farce de l'IA de Trump : si vous ne donnez pas d'argent, je vous insulterai

Titre original : La farce de l’IA de Trump : Si tu ne donnes pas d’argent, je te critique

Auteur original : 0x2333

Source originale :

Reproduction : Mars Finance

Le PDG d’Anthropic, Dario Amodei, a envoyé vendredi dernier une note interne de 1600 mots à tous ses employés. Cette note a été révélée aujourd’hui par le média technologique The Information, provoquant immédiatement un tollé dans toute la Silicon Valley.

Le cœur de la message est une seule phrase : Anthropic a été bannie par le gouvernement de Trump, non pas parce que les clauses de sécurité étaient difficiles à négocier, mais parce que la société n’a pas fait de dons.

À 25 millions de dollars près

Dario a nommé OpenAI dans sa note.

Il affirme que la véritable raison pour laquelle le gouvernement de Trump n’aime pas Anthropic est : la société n’a pas fait de dons à Trump, n’a pas loué « un style de dictature ». En revanche, chez OpenAI, l’argent et la posture ont été largement fournis.

En septembre 2025, le président d’OpenAI, Greg Brockman, et son épouse ont fait un don de 25 millions de dollars à la super-organisation politique MAGA Inc. Selon les documents déposés auprès de la Commission électorale fédérale, cet argent était le plus gros don unique de la période, représentant près d’un quart du total des fonds levés en six mois. Brockman a ensuite publié sur les réseaux sociaux que ce don visait à « soutenir des politiques favorisant l’innovation américaine » et a loué le gouvernement Trump pour « sa volonté de dialoguer directement avec la communauté de l’IA ».

Le PDG Sam Altman a choisi une autre voie. Il n’a pas fait de gros dons à MAGA Inc, mais en décembre 2024, il a donné 1 million de dollars au comité d’investiture de Trump. Plus important encore, il a adopté une posture : le lendemain de l’investiture de Trump, Altman s’est tenu derrière le sceau présidentiel dans la salle Roosevelt de la Maison Blanche, annonçant le projet d’infrastructure IA Stargate de 500 milliards de dollars, et a dit à Trump en face : « Sans vous, cela n’aurait pas été possible ». Lors du dîner technologique à la Maison Blanche en septembre 2025, il a de nouveau déclaré à Trump : « Merci d’être un président si favorable aux affaires et à l’innovation. »

Ce qui est intéressant, c’est que ce même Sam Altman a écrit publiquement en 2016 : « Pour quiconque connaît l’histoire de l’Allemagne dans les années 1930, les actions de Trump donnent la chair de poule. » Il a aussi comparé Trump à Hitler, évoquant « le grand mensonge ». Avant l’élection de 2024, il a donné 200 000 dollars au Parti démocrate pour soutenir la réélection de Biden.

Et Anthropic, lui, n’a rien fait. Pas de dons, pas de dîner, pas de déclaration derrière le sceau présidentiel pour remercier.

C’est la première fois dans l’industrie de l’IA qu’un PDG de grande entreprise déclare publiquement : votre traitement à Washington dépend de combien vous avez donné à la Maison Blanche.

Dario a également critiqué directement le contrat d’OpenAI avec le Pentagone. Il affirme qu’OpenAI a accepté ce contrat parce qu’« ils veulent apaiser leurs employés, alors que nous voulons réellement prévenir les abus », et que la communication autour de ce contrat est une « pure mentira ».

La réaction de la Maison Blanche a indirectement confirmé la version de Dario. Un fonctionnaire a déclaré au site Axios : « On ne peut pas croire que Claude n’ait pas agi dans l’ombre pour exécuter l’agenda personnel de Dario dans un environnement confidentiel. » Le ministre des Finances, Scott Bessent, a répliqué par tweet, affirmant que « aucune entreprise privée ne doit influencer les clauses de sécurité nationale américaines ».

Aucune mention dans la réponse des divergences techniques sur les clauses de sécurité. Que des attaques personnelles.

Après la fuite de la note, l’ancien PDG de Google, Eric Schmidt, a publiquement soutenu Dario, déclarant : « Dario a raison, c’est l’une des décisions les plus importantes auxquelles notre société doit faire face. » Par ailleurs, le PDG d’OpenAI, Altman, a lui aussi reconnu dans une note interne que signer un contrat avec le Pentagone quelques heures après le bannissement d’Anthropic « semblait à la fois spéculatif et précipité ».

Une position embarrassante pour Palantir

L’autre moitié de la note dévoile la position de la plus grande société d’analyse de données de défense des États-Unis, Palantir, valorisée à environ 350 milliards de dollars.

Palantir ne construit pas de modèles, ni de puces, c’est comme un OpenClaw dédié au gouvernement, une couche intermédiaire qui connecte Claude, GPT et autres grands modèles dans vos outils de chat et flux de travail. Palantir intègre les modèles d’IA d’autres sociétés dans les systèmes confidentiels militaires, permettant à ces modèles de lire du renseignement, d’analyser et de faire de la reconnaissance de cibles. 54 % de ses revenus proviennent du gouvernement, et le marché américain représente 74 % de ses revenus totaux. La société n’a pas une relation de partenariat avec le Pentagone, mais une relation symbiotique.

Fin 2024, Anthropic a intégré le réseau confidentiel du Pentagone via Palantir, et Claude est devenu le premier modèle d’IA déployé dans un système militaire classifié américain. En juillet 2025, le Pentagone a attribué à Anthropic un contrat de 200 millions de dollars. Palantir est responsable de l’exploitation du système Maven (le projet phare d’IA du Pentagone, pour la fusion de renseignements et la reconnaissance de cibles), dont le plafond contractuel est de 1,3 milliard de dollars. Les six commandements militaires américains et l’OTAN utilisent tous Claude.

Mais les choses ont commencé à se compliquer. En janvier 2026, lors de l’opération d’arrestation du président vénézuélien Maduro, Claude a participé à l’analyse du renseignement via la plateforme Palantir. Après coup, Anthropic a demandé à Palantir si Claude avait été utilisé dans la phase de tir. Palantir a transmis cette question au Pentagone. L’armée a conclu que c’était une vérification post-opération par le fournisseur d’IA, et la relation s’est irréversiblement tendue.

Au moment où les négociations entre Anthropic et le Pentagone étaient au point mort, Palantir a fait une manœuvre qui a enflammé la situation : il a proposé au Pentagone une solution de sécurité « classificateur » (classifier) développée en interne, prétendant pouvoir, via apprentissage automatique, juger si chaque utilisation de Claude franchissait une ligne rouge. En clair : même si Anthropic refuse un contrat sans limite, Palantir peut contrôler son modèle lui-même. Cette solution offrait en réalité au Pentagone une porte de sortie — puisque Palantir disait pouvoir le faire, la sécurité d’Anthropic devenait superflue.

Dans sa note, Dario a démonté cette proposition en détail. Il affirme que « environ 20 % est sincère, 80 % est de la mise en scène ». La raison : le modèle ne peut pas déterminer s’il se trouve dans une boucle d’armes autonomes ; il ignore si ses données proviennent de sources étrangères ou de citoyens américains ; il ne sait pas si les données ont été obtenues avec le consentement des utilisateurs ou par des moyens douteux ; enfin, les attaques de jailbreak sont fréquentes et faciles à réaliser. Sur ces quatre points, le classificateur de Palantir ne répond à aucun.

Dario estime que la véritable compréhension de Palantir de la position d’Anthropic est : « Vous avez des employés mécontents, il faut leur donner quelque chose pour les calmer. »

Le 3 mars, lors du sommet de la défense à Silicon Valley organisé par Andreessen Horowitz, le PDG de Palantir, Alex Karp, a lancé une attaque indirecte : « Si la Silicon Valley pense pouvoir prendre tous les emplois de cols blancs et en plus arnaquer l’armée, vous êtes complètement idiots. » Tout le monde sait à qui il faisait référence. Mais ce qu’il n’a pas dit, c’est que la société « non coopérative » qu’il visait est en réalité son propre fournisseur d’IA le plus central.

Palantir a vendu au Pentagone une couche de sécurité IA où tourne Claude d’Anthropic, et le PDG d’Anthropic affirme que cette couche de sécurité n’est qu’un coup de com’. Palantir a trouvé une raison de pousser l’armée à se débarrasser d’Anthropic, mais après avoir évincé Anthropic, c’est Palantir qui en pâtit le plus.

Le coût de la déconstruction

On pourrait penser : « Claude n’est qu’une base de modèle, il suffit de le remplacer par GPT d’OpenAI ou Grok de xAI, comme on change le modèle par défaut dans OpenClaw. »

Ce n’est pas si simple. Reuters cite deux sources proches du dossier : dans Maven, il y a une quantité importante de prompts et de workflows construits autour de Claude. Ce n’est pas une simple question de changer une API. Les chaînes de prompts, les workflows, le format de sortie, le processus d’audit de sécurité ont tous été ajustés pour le comportement de Claude. Remplacer le modèle signifie reconstruire et tester une nouvelle chaîne complète pour l’analyse de renseignement militaire et la reconnaissance de cibles. Selon des sources, Palantir doit « reconstruire une partie du logiciel ».

Le contrat Maven plafonne à 1,3 milliard de dollars, jusqu’en 2029. La déploiement couvre les six commandements militaires américains et l’OTAN. La planification de l’Agence géospatiale nationale américaine prévoit que, dès juin 2026, Maven devra transmettre aux commandants de zone « 100 % de renseignements générés par machine ». Changer de moteur va probablement repousser ce calendrier. Selon un analyste de Piper Sandler, une banque d’investissement de Wall Street, « Anthropic est profondément intégrée dans le système militaire et du renseignement. La connexion et la négociation pour une technologie de remplacement nécessitent du temps et des ressources, qui auraient pu être consacrés à la croissance. »

Michael Burry, célèbre pour avoir anticipé la crise des subprimes dans le film « The Big Short » et l’un des plus connus short sellers de Palantir, a ajouté : « La période de transition de six mois montre que la fidélité à la technologie de Claude ne dépend pas de la plateforme Palantir. Si Claude pouvait être changé aussi facilement que dans OpenClaw, pourquoi donner six mois de transition au Pentagone ? »

Les banques d’investissement ne s’en soucient pas. Après le bannissement d’Anthropic, Rosenblatt, une banque d’investissement spécialisée dans la tech, a relevé la cible de Palantir de 150 à 200 dollars, et UBS a aussi amélioré sa note. Le 4 mars, l’action Palantir a augmenté de 3,28 %. En même temps, entre le 20 février et le 3 mars, le PDG Karp et le cofondateur Peter Thiel ont vendu pour plus de 400 millions de dollars d’actions Palantir. Les analystes recommandent d’acheter, les fondateurs vendent.

Le jour même de la fuite de la note, une nouvelle tournure est apparue.

Le 4 mars, Dario a déclaré lors du sommet technologique de Morgan Stanley que « Anthropic tente de calmer la situation avec le Pentagone et cherche un accord acceptable pour les deux parties ». Il a affirmé que « les points communs entre Anthropic et le Pentagone sont bien plus nombreux que leurs divergences ». Selon des sources, durant les cinq jours de bannissement, des hauts responsables d’Anthropic ont en privé exprimé leur regret quant à la manière dont la communication s’était déroulée.

Mais la fuite de la note pourrait encore compliquer la situation. Axios rapporte que des responsables du gouvernement pensent que l’attaque de Dario contre le gouvernement Trump dans la note « pourrait ruiner toute possibilité de réconciliation ». Un fonctionnaire a déclaré : « On ne peut pas croire que Claude n’ait pas agi dans l’ombre pour exécuter l’agenda personnel de Dario dans un environnement confidentiel. »

Ce qui est intéressant, c’est qu’OpenAI aussi aide. Lors de la signature du contrat avec le Pentagone, Altman a explicitement demandé au gouvernement « d’étendre les mêmes clauses à Anthropic » et a publiquement critiqué la décision de considérer Anthropic comme un « risque dans la chaîne d’approvisionnement ». Il a qualifié cette décision de « très mauvaise ».

Le Pentagone a donné à Anthropic 48 heures pour décider. La déconstruction du moteur de Palantir a déjà pris plus d’une semaine. Et maintenant, les deux parties ont recommencé à négocier.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler