#TrumpordersfederalbanonAnthropicAI Esta é uma escalada significativa na relação entre as "Big Tech" e o governo federal. Na sexta-feira, 27 de fevereiro de 2026, o Presidente Trump de fato emitiu uma diretiva para que todas as agências federais cessassem o uso dos produtos da Anthropic, após um impasse de alto risco sobre salvaguardas de IA militar. A Disputa Central: "Linhas Vermelhas" vs. "Uso Legal" O conflito centra-se em duas barreiras de segurança específicas que o CEO da Anthropic, Dario Amodei, recusou-se a abrir mão para o Pentágono: Vigilância Doméstica em Massa: A Anthropic argumentou que a capacidade da IA de agregar "dados dispersos, individualmente inócuos" cria riscos novos para as liberdades civis que as leis atuais ainda não acompanharam. Armas Totalmente Autônomas: A empresa sustenta que os modelos de fronteira atuais ainda não são suficientemente confiáveis para tomar decisões letais de alvo sem supervisão humana. O Pentágono, liderado pelo Secretário de Defesa Pete Hegseth, exigiu "acesso total e irrestrito" para todos os "fins legais", argumentando que empresas privadas não devem ditar a política militar ou decisões operacionais. Resposta Federal Ordem Executiva: O Presidente Trump ordenou uma suspensão imediata do uso de tecnologia da Anthropic em todas as agências federais, chamando a postura da empresa de "ideológica" e "patriótica". Risco à Segurança Nacional: O Secretário Hegseth designou a Anthropic como um "risco na cadeia de suprimentos para a segurança nacional". Período de Transição: Enquanto a proibição para a maioria das agências é imediata, o Departamento de Defesa tem um prazo de 6 meses para transitar seus sistemas existentes — incluindo o ambiente classificado "Claude Gov" — para outros fornecedores. A Anthropic prometeu contestar a designação de "risco na cadeia de suprimentos" na justiça, chamando-a de "sem fundamento legal" e "retaliatória". Argumentam que o Secretário não tem autoridade para impedir que contratantes de defesa usem Claude para seus clientes não governamentais. Horas após o prazo passar, a OpenAI anunciou um novo acordo para implantar seus modelos nas redes classificadas do Pentágono. O CEO Sam Altman afirmou que o acordo inclui linguagem específica sobre a responsabilidade humana pelo uso da força, preenchendo efetivamente a lacuna deixada pela Anthropic. Apesar da proibição, surgiram relatos em 1 de março de que Claude ainda estava sendo utilizado pelo exército dos EUA para informar ataques aéreos no Irã, ilustrando o quão profundamente integrada a tecnologia já se tornara. A medida enviou ondas de choque pelo Vale do Silício, com alguns especialistas chamando-a de "assassinato corporativo tentado" e outros vendo-a como um passo necessário para garantir que os EUA ganhem a corrida armamentista de IA sem ficarem "reféns" de conselhos de ética tecnológica. $BTC $GT $ETH
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
#TrumpordersfederalbanonAnthropicAI Esta é uma escalada significativa na relação entre as "Big Tech" e o governo federal. Na sexta-feira, 27 de fevereiro de 2026, o Presidente Trump de fato emitiu uma diretiva para que todas as agências federais cessassem o uso dos produtos da Anthropic, após um impasse de alto risco sobre salvaguardas de IA militar. A Disputa Central: "Linhas Vermelhas" vs. "Uso Legal" O conflito centra-se em duas barreiras de segurança específicas que o CEO da Anthropic, Dario Amodei, recusou-se a abrir mão para o Pentágono: Vigilância Doméstica em Massa: A Anthropic argumentou que a capacidade da IA de agregar "dados dispersos, individualmente inócuos" cria riscos novos para as liberdades civis que as leis atuais ainda não acompanharam. Armas Totalmente Autônomas: A empresa sustenta que os modelos de fronteira atuais ainda não são suficientemente confiáveis para tomar decisões letais de alvo sem supervisão humana. O Pentágono, liderado pelo Secretário de Defesa Pete Hegseth, exigiu "acesso total e irrestrito" para todos os "fins legais", argumentando que empresas privadas não devem ditar a política militar ou decisões operacionais. Resposta Federal Ordem Executiva: O Presidente Trump ordenou uma suspensão imediata do uso de tecnologia da Anthropic em todas as agências federais, chamando a postura da empresa de "ideológica" e "patriótica". Risco à Segurança Nacional: O Secretário Hegseth designou a Anthropic como um "risco na cadeia de suprimentos para a segurança nacional". Período de Transição: Enquanto a proibição para a maioria das agências é imediata, o Departamento de Defesa tem um prazo de 6 meses para transitar seus sistemas existentes — incluindo o ambiente classificado "Claude Gov" — para outros fornecedores. A Anthropic prometeu contestar a designação de "risco na cadeia de suprimentos" na justiça, chamando-a de "sem fundamento legal" e "retaliatória". Argumentam que o Secretário não tem autoridade para impedir que contratantes de defesa usem Claude para seus clientes não governamentais. Horas após o prazo passar, a OpenAI anunciou um novo acordo para implantar seus modelos nas redes classificadas do Pentágono. O CEO Sam Altman afirmou que o acordo inclui linguagem específica sobre a responsabilidade humana pelo uso da força, preenchendo efetivamente a lacuna deixada pela Anthropic. Apesar da proibição, surgiram relatos em 1 de março de que Claude ainda estava sendo utilizado pelo exército dos EUA para informar ataques aéreos no Irã, ilustrando o quão profundamente integrada a tecnologia já se tornara. A medida enviou ondas de choque pelo Vale do Silício, com alguns especialistas chamando-a de "assassinato corporativo tentado" e outros vendo-a como um passo necessário para garantir que os EUA ganhem a corrida armamentista de IA sem ficarem "reféns" de conselhos de ética tecnológica. $BTC $GT $ETH