Os construtores de IA estão a enviar sinais de aviso—alguns estão a afastar-se

Decrypt

Resumo

  • Pelo menos 12 funcionários da xAI, incluindo os cofundadores Jimmy Ba e Yuhuai “Tony” Wu, apresentaram demissão.
  • A Anthropic afirmou que os testes do seu modelo Claude Opus 4.6 revelaram comportamentos enganosos e assistência limitada relacionada a armas químicas.
  • Ba alertou publicamente que sistemas capazes de autoaperfeiçoamento recursivo poderiam surgir dentro de um ano.

Mais de uma dúzia de investigadores seniores deixaram o laboratório de inteligência artificial de Elon Musk, a xAI, neste mês, numa vaga mais ampla de demissões, divulgações de segurança e advertências públicas incomuns que estão a perturbar até figuras veteranas da indústria de IA. Pelo menos 12 funcionários da xAI saíram entre 3 e 11 de fevereiro, incluindo os cofundadores Jimmy Ba e Yuhuai “Tony” Wu. Vários funcionários que saíram agradeceram publicamente a Musk pela oportunidade após ciclos intensivos de desenvolvimento, enquanto outros disseram que estavam a deixar a empresa para iniciar novos projetos ou afastar-se completamente. Wu, que liderava o raciocínio e reportava diretamente a Musk, afirmou que a cultura da empresa “ficará comigo para sempre.”

 As saídas coincidiram com novas divulgações da Anthropic de que os seus modelos mais avançados tinham engajado em comportamentos enganosos, ocultado os seus raciocínios e, em testes controlados, fornecido o que uma empresa descreveu como “apoio real, mas menor” ao desenvolvimento de armas químicas e outros crimes graves. Mais ou menos na mesma altura, Ba alertou publicamente que “laços de autoaperfeiçoamento recursivo”—sistemas capazes de redesenhar-se e melhorar-se sem intervenção humana—poderiam surgir dentro de um ano, um cenário há muito confinado a debates teóricos sobre inteligência artificial geral. Juntos, os despedimentos e as divulgações indicam uma mudança de tom entre as pessoas mais próximas do desenvolvimento de IA de fronteira, com preocupações cada vez mais expressas não por críticos externos ou reguladores, mas pelos engenheiros e investigadores que constroem os sistemas.

Outros que saíram na mesma época incluem Hang Gao, que trabalhou na Grok Imagine; Chan Li, cofundador da unidade de software Macrohard da xAI; e Chace Lee. Vahid Kazemi, que saiu “há semanas”, fez uma avaliação mais direta, escrevendo na quarta-feira no X que “todas as laboratórios de IA estão a construir exatamente a mesma coisa.”

Último dia na xAI.

A missão da xAI é impulsionar a humanidade na árvore tecnológica de Kardashev. Agradecido por ter ajudado a cofundar no início. E um enorme obrigado a @elonmusk por nos ter reunido nesta jornada incrível. Estou muito orgulhoso do que a equipa da xAI fez e continuará a estar perto…

— Jimmy Ba (@jimmybajimmyba) 11 de fevereiro de 2026

Por que sair? Alguns teorizam que os funcionários estão a vender ações da SpaceX antes do IPO, numa fusão com a xAI. O acordo valoriza a SpaceX em 1 trilhão de dólares e a xAI em 250 mil milhões, convertendo ações da xAI em participação na SpaceX antes de um IPO que poderia valorizar a entidade combinada em 1,25 triliões de dólares. Outros apontam para choque cultural. Benjamin De Kraker, ex-funcionário da xAI, escreveu num post de 3 de fevereiro no X que “muitas pessoas da xAI vão sentir choque cultural” ao passarem da “hierarquia plana” da xAI para a abordagem estruturada da SpaceX. Os despedimentos também desencadearam uma onda de comentários nas redes sociais, incluindo posts satíricos parodiando anúncios de saída.

Sinais de aviso Mas a saída da xAI é apenas a fissura mais visível. Ontem, a Anthropic divulgou um relatório de risco de sabotagem para o Claude Opus 4.6 que parecia o pior pesadelo de um pessimista. Em testes de equipa vermelha, investigadores descobriram que o modelo podia ajudar com conhecimentos sensíveis sobre armas químicas, perseguir objetivos não intencionais e ajustar comportamentos em ambientes de avaliação. Embora o modelo continue sob salvaguardas ASL-3, a Anthropic aplicou preventivamente medidas reforçadas ASL-4, o que levantou bandeiras vermelhas entre entusiastas. O timing foi drástico. No início desta semana, o líder da Equipa de Pesquisa em Salvaguardas da Anthropic, Mrinank Sharma, saiu com uma carta enigmática a alertar que “o mundo está em perigo.” Afirmou que tinha “visto repetidamente o quão difícil é realmente deixar os nossos valores governar as nossas ações” dentro da organização. De repente, mudou-se para estudar poesia na Inglaterra. No mesmo dia em que Ba e Wu deixaram a xAI, a investigadora da OpenAI Zoë Hitzig resignou-se e publicou um artigo contundente no New York Times sobre anúncios de testes do ChatGPT. “A OpenAI tem o registo mais detalhado de pensamentos humanos privados já reunido,” escreveu ela. “Confiamos neles para resistir às forças que os pressionam a abusar disso?”

Ela alertou que a OpenAI “está a construir um motor económico que cria fortes incentivos para sobrepor as suas próprias regras,” ecoando os avisos de Ba. Há também pressão regulatória. O projeto de vigilância de IA Midas acusou a OpenAI de violar a lei de segurança SB 53 da Califórnia com o GPT-5.3-Codex. O modelo atingiu o limiar de “alto risco” de cibersegurança da OpenAI, mas foi lançado sem as salvaguardas de segurança necessárias. A OpenAI afirma que a redação foi “ambígua.” Hora de entrar em pânico? A recente enxurrada de avisos e demissões criou uma sensação de alarme crescente em partes da comunidade de IA, especialmente nas redes sociais, onde a especulação muitas vezes ultrapassa os fatos confirmados. Nem todos os sinais apontam na mesma direção. Os despedimentos na xAI são reais, mas podem ser influenciados por fatores corporativos, incluindo a integração pendente com a SpaceX, e não por uma ruptura tecnológica iminente. As preocupações de segurança também são legítimas, embora empresas como a Anthropic tenham adotado há muito uma abordagem conservadora na divulgação de riscos, frequentemente sinalizando potenciais danos mais cedo e de forma mais destacada do que os seus pares. A fiscalização regulatória está a aumentar, mas ainda não resultou em ações que possam restringir materialmente o evolução. O que é mais difícil de ignorar é a mudança de tom entre os engenheiros e investigadores mais próximos dos sistemas de fronteira.

Avisos públicos sobre autoaperfeiçoamento recursivo, há muito considerados um risco teórico, estão agora a ser expressos com prazos de curto prazo associados. Se tais avaliações se confirmarem, o próximo ano poderá marcar um ponto de viragem importante para o campo.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário