Controverse entre Anthropic et le gouvernement américain



Conflit central : le Pentagone exige une utilisation illimitée du modèle Claude pour « toutes les utilisations légales », Anthropic défend deux lignes rouges — interdiction des armes entièrement autonomes et interdiction de la surveillance domestique à grande échelle.

Dernier rebondissement : le 27 février 2026, les négociations ont complètement échoué. Trump a explosé sur Truth Social, qualifiant Anthropic de « fou de gauche », et a ordonné à toutes les agences fédérales de cesser immédiatement d'utiliser la technologie Anthropic, avec une période de transition de 6 mois. Le Département de la Défense a été encore plus dur, le classant directement comme « entreprise à risque dans la chaîne d'approvisionnement » (similaire au traitement de Huawei).

Secousse dans l'industrie : Anthropic est la seule IA de pointe déployée sur le réseau confidentiel de l'armée américaine, cette « coupure d'approvisionnement » portera un coup dur à l'analyse du renseignement militaire américain. OpenAI a rapidement pris le relais, concluant un accord avec le Pentagone en quelques heures, jouant une pièce de théâtre commerciale où « on profite de ta faiblesse pour te tuer ».
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)