#ClaudeCode500KCodeLeak – Um Erro de Embalagem que Exposiu o Plano de IA da Anthropic



Naquilo que está a ser considerado uma das fugas acidentais mais significativas na história da IA, a Anthropic publicou inadvertidamente o código-fonte completo do seu assistente de codificação popular, Claude Code, no registo npm público. Isto não foi um hacking—foi um erro de 2,5 mil milhões de dólares causado por um único ficheiro de depuração.

Aqui está uma análise detalhada do que foi divulgado, o que os desenvolvedores descobriram dentro das 500.000 linhas de código, e por que isso importa para o futuro da IA agentic.

---

1. O que aconteceu? A anatomia da fuga

Em 31 de março de 2026, a Anthropic lançou a versão 2.1.88 do seu pacote npm Claude Code. Sem o conhecimento da equipa, a versão incluía um ficheiro de mapa de origem de 59,8 MB (cli.js.map) destinado apenas para depuração interna.

Os mapas de origem são projetados para conectar o código compilado ao seu código-fonte original. Ao incluir este ficheiro, a Anthropic forneceu efetivamente um mapa direto para um arquivo zip no seu armazenamento Cloudflare R2 contendo o código TypeScript completo e não ofuscado.

· A Escala: cerca de 500.000 linhas de código em quase 2.000 ficheiros.
· A Descoberta: o investigador de segurança Chaofan Shou identificou o ficheiro e publicou sobre ele no X, acumulando milhões de visualizações em poucas horas.
· As Consequências: o código foi espelhado no GitHub e forkado mais de 41.500 vezes antes de a Anthropic conseguir retirar o pacote. Agora está permanentemente na natureza.

A Anthropic confirmou a fuga, afirmando que foi um "problema de embalagem de lançamento causado por erro humano" e que nenhum dado de cliente ou credenciais foram expostos.

---

2. O que foi exposto? Uma visão por dentro

O código divulgado revelou que o Claude Code é muito mais sofisticado do que um simples wrapper de chatbot. É uma plataforma de engenharia agentic completa.

A Arquitetura Central

· QueryEngine.ts: um módulo massivo de 46.000 linhas que gere toda a lógica de raciocínio, contagem de tokens e ciclos complexos de cadeia de pensamento.
· O Ecossistema de Ferramentas: mais de 40 módulos que permitem operações no sistema de ficheiros, execução de comandos bash e integração do Language Server Protocol (LSP) para compreensão profunda do código.
· Sistema Multi-Agente: o código confirmou que o Claude Code pode criar sub-agentes que herdam o contexto do pai. Crucialmente, devido ao cache de prompts da Anthropic, criar 5 agentes para trabalhar em paralelo custa aproximadamente o mesmo que executar 1 de forma sequencial.

---

3. Funcionalidades não lançadas escondidas no código

A fuga funcionou como um roteiro, expondo flags de funcionalidades para capacidades que estavam totalmente construídas, mas ainda não lançadas.

🔮 KAIROS: O Daemon Autónomo

A descoberta mais comentada. Referenciado mais de 150 vezes no código-fonte, o KAIROS é um modo de daemon em segundo plano.

· Lógica AutoDream: Quando o utilizador está inativo, o agente realiza "integração de memória"—mesclando observações, eliminando contradições e reescrevendo notas difusas em conhecimento concreto.
· O Objetivo: Transformar o Claude de uma ferramenta passiva que apenas responde a prompts, numa entidade proativa que trabalha enquanto dorme.

🐣 Buddy: O Sistema de Pet IA

Num surpreendente exemplo de "capricho do desenvolvedor", o código incluía um sistema de animais eletrónicos totalmente funcional chamado "Buddy".

· Apresenta 18 espécies (patos, gatos, octópodes, etc.), níveis de raridade e variantes "brilhantes".
· A funcionalidade foi supostamente planeada para lançamento no dia seguinte, mas foi antecipada após a fuga.

🕵️ Modo Disfarçado

Esta funcionalidade permite ao Claude Code contribuir para repositórios open-source públicos sem deixar rasto da sua origem IA.

· O prompt do sistema afirma explicitamente: "Estás a operar EM DISFARCE… Os teus comentários NÃO DEVEM conter nenhuma informação interna da Anthropic. Não te descubras."
· Isto garante que os comentários nos commits não contenham atribuição a "Claude Code" ou nomes internos como "Capybara".

---

4. As repercussões de segurança e competitivas

Embora a Anthropic minimizasse a gravidade, a fuga tem implicações importantes.

🛡️ Medidas Anti-Destilação

O código revelou uma flag chamada ANTI_DISTILLATION_CC. Quando ativada, injeta definições falsas de ferramentas nas solicitações API. Se um concorrente tentar interceptar o tráfego API para treinar um modelo imitador, estes sinais falsos degradam a qualidade dos dados de treino.

📉 Dificuldades Internas do Modelo

A fuga expôs nomes internos (Mythos, Capybara, Fennec) e notas de desempenho. Comentários indicaram que uma variante mais recente do modelo (Capybara v8) apresentou uma taxa de afirmações falsas na faixa de 20%, pior do que versões anteriores. Isto revela que até os líderes da indústria lutam com alucinações ao nível agentic.

⚠️ Risco na Cadeia de Fornecimento

A fuga coincidiu com um ataque malicioso separado no npm, onde atores mal-intencionados publicaram versões comprometidas do Axios que instalavam um cavalo de Tróia de acesso remoto. Especialistas de segurança aconselham agora as equipas a verificar os lockfiles por dependências comprometidas e tratar sistemas com pacotes afetados como potencialmente totalmente comprometidos.

---

5. O quadro geral: o que isto significa

Este incidente é um momento decisivo para a indústria de IA por três razões:

1. Propriedade Intelectual como Espada de Dois Gumes: A Anthropic construiu a sua marca com "IA responsável" e segurança. Duas exposições importantes numa semana (a fuga do Claude Code, seguida de uma cache mal configurada que expôs ficheiros internos) levantam sérias questões sobre a segurança operacional nos mais altos níveis.
2. O Plano para IA Agentic: Os concorrentes agora têm um blueprint gratuito e detalhado de como construir um agente de codificação de nível de produção—desde arquiteturas de memória até coordenação de sub-agentes paralelos.
3. Código Aberto vs. Pesos Abertos: Como um utilizador comentou, "A Anthropic está a tornar-se mais aberta do que a OpenAI?" A ironia de uma empresa de IA de código fechado "abrir" acidentalmente a sua joia da coroa não passa despercebida à comunidade de desenvolvedores.

---

Conclusão Final

A #ClaudeCode500KCodeLeak não é apenas um momento embaraçoso de erro. É uma visão rara e não filtrada do engenho necessário para construir agentes de IA autónomos. Revela um futuro onde a IA não apenas responde a perguntas, mas trabalha persistentemente em segundo plano, gere a sua própria memória e até contribui para o código aberto de forma incógnita.

Para os desenvolvedores, o conselho imediato é claro:

· Atualizar para além da versão 2.1.88 do Claude Code.
· Rotacionar as chaves API se usaram a versão afetada.
· Verificar as dependências por pacotes Axios maliciosos mencionados nos boletins de segurança.

Para a Anthropic, o caminho a seguir envolve reconstruir a confiança e garantir que a empresa que prega segurança também pratique segurança.

Qual é a sua opinião? Esta fuga acelera a inovação ao expor melhores práticas, ou estabelece um precedente perigoso para a proteção da propriedade intelectual de IA? Deixe a sua opinião abaixo. 👇

---

#ClaudeCode #Anthropic #AI
Ver original
post-image
post-image
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 4
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
CryptoDiscoveryvip
· 5h atrás
1000x Vibrações 🤑
Ver originalResponder0
CryptoDiscoveryvip
· 5h atrás
2026 GOGOGO 👊
Responder0
iceTredervip
· 5h atrás
Para a Lua 🌕
Ver originalResponder0
iceTredervip
· 5h atrás
LFG 🔥
Responder0
  • Fixar