Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Futuros
Cientos de contratos liquidados en USDT o BTC
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Comienzo del trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Launchpad
Anticípate a los demás en el próximo gran proyecto de tokens
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
New
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
✨Pentágono Oficialmente Designa a Anthropic como un Riesgo en la Cadena de Suministro: Dario Amodei Anuncia que Irá a la Corte y Enfatiza que Continuará Apoyando la Seguridad Nacional
El Departamento de Defensa de EE. UU. (Pentágono) ha etiquetado oficialmente a la startup de inteligencia artificial Anthropic como un "riesgo en la cadena de suministro". Esta decisión pone fin a la disputa de meses sobre las restricciones de seguridad que la empresa ha impuesto a su modelo Claude AI. En una declaración escrita fechada el 5 de marzo de 2026, el departamento dijo: "Se ha notificado formalmente a la dirección de Anthropic que la empresa y sus productos son evaluados como un riesgo en la cadena de suministro; la decisión entra en vigor de inmediato." Esta es una herramienta que históricamente se ha utilizado contra empresas extranjeras (especialmente aquellas con conexiones chinas) que operan en contra de EE. UU., y es la primera vez que se aplica a una empresa estadounidense. La justificación del Pentágono es que Anthropic impide el uso de Claude AI "para cualquier propósito legítimo." Funcionarios del Departamento de Defensa afirmaron, “El principio fundamental es que el ejército debería poder usar tecnologías para todos los propósitos legítimos. No se permitirá que un proveedor interfiera en la cadena de mando y ponga en riesgo a los combatientes.”
✨El desacuerdo proviene de las dos líneas rojas críticas de Anthropic: La empresa rechaza el uso de Claude en la vigilancia masiva de ciudadanos estadounidenses y en sistemas de armas no tripulados totalmente autónomos. El CEO Dario Amodei había comunicado previamente explícitamente estas restricciones al Secretario de Defensa Pete Hegseth. El Pentágono argumenta que tales restricciones ponen en peligro la seguridad nacional.
✨El CEO de Anthropic, Dario Amodei, confirmó la decisión del Pentágono. En la declaración oficial de la empresa fechada el 5 de marzo de 2026, Amodei afirmó que recibieron la carta del Departamento de Guerra (anteriormente el Pentágono) el 4 de marzo y consideró que la decisión era “sin fundamento legal.” Amodei declaró, “No tenemos más opción que luchar contra esta acción en los tribunales,” y confirmó que presentarán un desafío legal, como ya habían mencionado anteriormente. Sin embargo, Amodei también enfatizó que seguirán apoyando las operaciones de seguridad nacional: “Para no interrumpir a nuestros combatientes, continuaremos proporcionando nuestros modelos a costo nominal y con soporte de ingeniería mientras sea permitido.” La empresa recordó que ya trabaja activamente con el Pentágono en áreas como análisis de inteligencia, modelado, planificación operativa y operaciones cibernéticas. Amodei también se disculpó por el tono del memorando interno filtrado hace seis días, afirmando que el texto está desactualizado y no refleja su consideración cuidadosa. La decisión llega después de que la administración Trump ordenara a las agencias federales detener el uso de productos de Anthropic. El proceso, iniciado por la declaración del Secretario de Defensa Pete Hegseth en X, podría ahora requerir que todos los contratistas militares corten vínculos comerciales con Anthropic. Los expertos dicen que este movimiento podría cambiar el equilibrio de poder entre Silicon Valley y el gobierno y enfriar la innovación. Anthropic argumenta que la clasificación de riesgo en la cadena de suministro debería ser el “método menos restrictivo” bajo 10 USC 3252, afirmando que la decisión es de alcance limitado y solo afectará contratos directos. La empresa sigue comprometida a continuar sus contribuciones a la seguridad nacional junto con los procedimientos judiciales. Este desarrollo vuelve a destacar la tensión entre las políticas de seguridad de IA y las necesidades de defensa; el proceso parece estar listo para continuar en los tribunales en los próximos días.
La disputa surge de un contrato por aproximadamente $200 millones que Anthropic firmó para usar su modelo de IA Claude en sistemas clasificados para el ejército de EE. UU.
Anthropic estableció dos "líneas rojas" clave:
- Que la IA no se utilice para vigilancia masiva de ciudadanos estadounidenses.
- Que no se utilice para **sistemas de armas completamente autónomas** (armas que toman decisiones letales sin supervisión humana)
El Pentágono, sin embargo, exigió un uso ilimitado de la IA para "todos los propósitos legítimos" y no aceptó estas restricciones. El Secretario de Defensa Pete Hegseth obligó a la compañía a cumplir con un plazo hasta la noche del viernes (26 de febrero de 2026).
Cuando no se alcanzó un acuerdo:
- El presidente Trump ordenó a todas las agencias federales **detener inmediatamente** la tecnología de Anthropic (dando al Pentágono un período de transición de 6 meses).
- Hegseth declaró a Anthropic como un "riesgo en la cadena de suministro para la seguridad nacional", una sanción normalmente utilizada contra amenazas extranjeras; también prohíbe a los contratistas militares hacer negocios con la compañía.
Anthropic calificó la decisión como "inválida legalmente y que establece un precedente" y anunció que llevará el asunto a los tribunales. El CEO Dario Amodei enfatizó que no daría marcha atrás en su posición.
Finalmente, el Pentágono firmó un nuevo acuerdo con OpenAI aceptando restricciones similares. Este evento marcó un punto de inflexión importante respecto a quién debería establecer límites en el uso militar de la IA—¿empresas o gobierno?
En resumen: Lo que comenzó como una discusión sobre preocupaciones de seguridad escaló a presión política y sanciones. El conflicto entre ética de la IA y seguridad nacional continúa.
#TrumpordersfederalbanonAnthropicAI