Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Promoções
Centro de atividade
Participe de atividades e ganhe recompensas
Indicação
20 USDT
Convide amigos para recompensas de ind.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Anúncio
Atualizações na plataforma em tempo real
Blog da Gate
Artigos do setor de criptomoedas
AI
Gate AI
Seu parceiro de IA conversacional para todas as horas
Gate AI Bot
Use o Gate AI diretamente no seu aplicativo social
GateClaw
Gate Blue Lobster, pronto para usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
10K+ habilidades
Do escritório à negociação: um hub completo de habilidades para turbinar o uso da IA
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas extras
DeepSeek V4 Estreia Impactante: Dez Princípios Fundamentais na Competição com os Oponentes
Às 15h30, o sol na California Avenue já começava a inclinar-se em direção a Stanford. O cachorro na porta do Zombie Café estava deitado sob a cadeira branca na entrada. Na mesa, espalhadas três cópias impressas: o comunicado de lançamento do Opus 4.7 da Anthropic de 16 de abril, a transcrição palavra por palavra da apresentação do GPT-5.5 de Greg Brockman em 23 de abril, e o relatório técnico do DeepSeek V4, publicado na madrugada, ainda com tinta fresca.
Em oito dias, três empresas colocaram todas as suas apostas para o segundo trimestre de 2026 na mesa.
Antes de terminar o café, Alan Walker do Vale do Silício explicou tudo claramente. Sem exagerar nos benchmarks, sem falar qual modelo “parece melhor”, sem escrever releases de relações públicas. Apenas desmontando pelos princípios fundamentais — tecnologia, chips, preço, público, estratégia, ecossistema — onde cada uma delas estará em 2026, quem está na liderança, quem está na defensiva, quem está mudando as regras.
01 Open source vs Proprietário — A verdadeira disputa de rota nesta guerra
DeepSeek desta vez abriu sincronizadamente os modelos V4-Pro e V4-Flash, com licença MIT padrão, pesos disponíveis diretamente no Hugging Face, acessíveis para download, ajuste fino e uso comercial. Claude Opus 4.7 e GPT-5.5 são totalmente fechados — apenas uma API, os pesos do modelo você nunca vai tocar na vida.
Muita gente pensa que essa é uma disputa de modelos de negócio. Errado. É uma disputa de estruturas de confiança.
A barreira de proteção do modelo fechado chama-se “você só pode vir até aqui” — prende o usuário na porta da minha casa, na fila. A barreira do open source é “você não consegue ficar sem meu ecossistema” — constrói uma infraestrutura de IA para desenvolvedores, empresas e até países inteiros, baseada na minha arquitetura. Um é uma praça de pedágio, outro é uma rodovia de alta velocidade.
DeepSeek consolidou isso com quatro gerações de open source: V3, R1, V3.2, V4. Hoje, qualquer empresa no mundo que queira fazer implantação local, rodar grandes modelos em finanças, saúde, governo ou defesa, pensa primeiro na DeepSeek — de olhos fechados. Empresas estatais chinesas, fundos soberanos do Oriente Médio, bancos europeus que não querem entregar dados para nuvem americana — esses nunca usarão API fechada, nunca. A aposta da Anthropic e do OpenAI é o oposto: a lacuna de inteligência de ponta sempre existirá, os clientes mais inteligentes gastarão mais.
Porém, essa aposta tem uma janela de tempo. Desde o dia em que o R1 foi lançado até hoje, a diferença de capacidade entre open source e fechado encolheu de um ano para três meses. Se esse período cair para um mês, a linha do fechado começará a rachar.
02 Arquitetura do modelo — Os três não seguem o mesmo caminho fundamental
V4-Pro com 1.6T de parâmetros / 49B de ativação; V4-Flash com 284B de parâmetros / 13B de ativação. Contexto de 1 milhão de tokens é padrão de fábrica. O núcleo da arquitetura é atenção híbrida (CSA + HCA intercalados) + Hyper-Conexões Restringidas por Manifold + Otimizador Muon + Treinamento FP4. Em cenário de 1 milhão de tokens, a inferência de um token do V4-Pro usa apenas 27% dos FLOPs do V3.2, o cache KV usa 10%. O V4-Flash é ainda mais eficiente — FLOPs caíram para 10%, cache KV para 7%.
A essência dessa arquitetura é uma aposta: contexto longo não é questão de capacidade, é questão de eficiência. A geração V3 reduziu custos de treinamento com MoE, a geração V4 reduzirá custos de inferência com atenção híbrida. Cortando nos pontos mais caros.
GPT-5.5 é diferente. A OpenAI declarou claramente — é o primeiro modelo treinado do zero após o GPT-4.5. As versões 5.1, 5.2, 5.3, 5.4 foram apenas iterações de pós-treinamento no mesmo modelo base. O 5.5 reformulou arquitetura, dados de pré-treinamento, objetivos de treinamento orientados por agentes. Pachocki, na apresentação, disse — “o progresso dos modelos nos últimos dois anos foi surpreendentemente lento” — na verdade, quer dizer que o modelo base anterior não suportava mais a curva de escalabilidade, era hora de trocar de motor.
Claude Opus 4.7 é uma melhoria precisa em relação ao 4.6. A Anthropic tem uma definição clara: melhoria notável, não uma mudança de paradigma. O benchmark SWE-bench aumentou de 80.8 para 87.6, resolução visual de 1568px para 2576px, throughput geral 3,3x maior, tokenizer trocado (texto igual, usa 1 a 1,35x mais tokens). Mythos Preview é seu verdadeiro próximo monstro, mas ainda guardado na caixa-forte, só para 12 parceiros, aguardando lançamento civil.
03 Chips de base — A notícia mais subestimada de hoje
As manchetes dos principais veículos em inglês focam nos benchmarks do V4. Errado. A verdadeira mudança de jogo hoje foi: parte do treinamento do V4 foi feita em chips Huawei Ascend.
No mesmo dia, a Huawei anunciou suporte completo para toda a linha Ascend SuperPoD ao V4 Pro e Flash. Cambricon também anunciou compatibilidade. SMIC teve alta de 10% na bolsa de Hong Kong. Essas três linhas juntas formam a notícia — pela primeira vez, a IA chinesa roda toda a pilha de treinamento e inferência em hardware nacional, sem nenhum chip Nvidia na cadeia crítica.
O peso disso supera todos os benchmarks somados.
Nos últimos três anos, a maior alavanca dos EUA contra a China foi a restrição à exportação de GPUs avançadas. A lógica é simples — você não consegue treinar o melhor modelo, porque não consegue comprar H100 ou B200. O lançamento do V4 equivale a cortar essa alavanca pela metade. Os principais modelos open source podem treinar e implantar em hardware não-Nvidia. Se essa validação se espalhar, as sanções na IA se tornam praticamente ineficazes.
Claude e GPT-5.5 rodam em stacks Nvidia H100/H200/B200 + Google TPU + Trainium2 da Anthropic. Não há outro caminho, nem outro fornecedor. Essa é uma barreira — um ponto único. Se a Nvidia aumentar preços ou não conseguir atender à demanda, as duas ficarão na corda bamba. A DeepSeek agora tem uma cadeia de suprimentos independente — uma carta na manga.
04 Estrutura de custos de treinamento — Como Muon, FP4 e 32T de tokens formaram o preço de hoje
O relatório técnico do V4 explica claramente: usam o otimizador Muon (mais rápido na convergência, treinamento mais estável), precisão FP4 (reduz uso de memória pela metade), pós-treinamento em duas fases (especialistas de diferentes áreas fazem SFT + RL independentes, depois usam destilação por política para unificar o modelo), pré-treinamento com 32 trilhões de tokens. Essas não são estratégias vazias — são as máquinas que realmente reduzem custos de treinamento.
Resultado: o preço da API do V4-Pro pode ficar abaixo do V3.2, e o do V4-Flash caiu na faixa de modelos open source menores.
A estratégia do GPT-5.5 é aumentar os preços explicitamente. 5 dólares por milhão de tokens de entrada, 30 dólares por saída — o dobro do GPT-5.4. A justificativa oficial é “a eficiência de tokens aumentou 40%, o custo total só aumentou 20%”. Boa propaganda. Mas, na prática, rodando prompts reais, fica claro — workflows de prompts longos e saídas curtas dobram a conta. OpenAI aposta que a escassez de inteligência de ponta ainda sustentará por mais um ciclo, por isso pode cobrar o dobro.
Claude Opus 4.7 aumenta os preços de forma dissimulada. Os preços permanecem iguais — 5/25 dólares, iguais ao Opus 4.6. Mas, nos documentos internos da Anthropic, está escrito que o novo tokenizer usa até 1,35x mais tokens para o mesmo texto. Ou seja, o preço não mudou, mas a conta pode subir até 35%. É uma estratégia de aumento inteligente, mas equipes de engenharia com alto volume perceberão imediatamente na demonstração financeira mensal.
A DeepSeek faz o oposto — reduz preços. O preço do V3.2 já é baixo, o do V4-Pro é menor ainda. E, após a produção do Huawei Ascend 950, nos próximos meses, essa redução deve continuar. Essa é a tática tradicional da internet chinesa: usar escala e eficiência para quebrar a margem dos concorrentes, e depois consolidar na ecologia.
05 Precificação de API — Quanto de inteligência você consegue comprar por um dólar
Vamos abrir a tabela de preços.
A avaliação de terceiros, a Artificial Analysis, fez uma comparação: na mesma pontuação do Índice de Inteligência, GPT-5.5 (médio) ≈ Claude Opus 4.7 (máximo), sendo que o primeiro custa cerca de $1.200 para testes completos, o segundo cerca de $4.800. O V4-Pro, na mesma escala de inteligência, custa entre um terço e um décimo do valor.
Isso não é “mais barato”. É reduzir o custo unitário de inteligência de ponta em uma ordem de grandeza.
Para uma empresa que gasta um milhão de dólares por mês em tokens, o que isso significa? Antes, com o mesmo orçamento, rodava 10 agentes; agora, pode rodar 80. Antes, experimentos caros demais, agora, acessíveis. Se isso for confirmado por três ou quatro grandes players — como uma empresa que reduziu 70% do custo de um agente de atendimento trocando Opus por V4-Pro, sem perder qualidade — os demais seguirão. É um efeito reflexivo: mais uma migração, a próxima fica mais fácil.
OpenAI e Anthropic só podem reagir de duas formas: ou aumentam a lacuna de modelos fechados de ponta (lançar logo o Mythos), ou tornam a troca mais difícil em termos de relacionamento, conformidade e confiabilidade. A primeira leva tempo e dinheiro, a segunda exige paciência dos clientes.
06 Economia real de contexto de um milhão de tokens
As três empresas adotaram 1M de contexto. Parece uma corrida igual.
Mas — fazer por fazer é uma coisa, fazer barato é outra.
O V4-Pro alcançou 83,5 pontos no benchmark de recuperação de textos longos MRCR, superando o Gemini-3.1-Pro com 76,3, mas ficando atrás do Claude Opus 4.6 com 92,9. No CorpusQA, com 1M de tokens, obteve 62%, contra 53,8% do Gemini 3.1 Pro. A precisão de recuperação é 94% em 128K, 82% em 512K, 66% em 1M. Números absolutos não são os melhores, mas é o melhor entre os open source, e o primeiro a fazer 1M como padrão.
Claude Opus 4.7 não cobra mais pelo contexto de 1 milhão de tokens — é uma habilidade forte da Anthropic. GPT-5.5 também. Mas o problema é: os custos de inferência por unidade variam dez vezes entre as três, e essa diferença se amplia na escala de contexto longo.
Vamos fazer uma conta simples. Um documento jurídico de 500K tokens analisado pelo modelo: só a entrada custa cerca de $2,50, mais $1 a $1,50 de saída — total de $3 a $4. O GPT-5.5 fica na mesma faixa, o V4-Pro cerca de $1. Se esse workflow rodar 10 mil vezes por dia, o custo anual varia de alguns milhões a mais de dez milhões de dólares. Para uma empresa média, o maior gargalo de análise com agentes é o custo de contexto longo — o V4-Pro elimina esse gargalo.
07 Capacidade de codificação e agentes — Os três defendem suas áreas
Vamos abrir a tabela de benchmarks, essa disputa fica bem clara.
E esses dados mostram não quem é mais forte, mas que as três estão focando em diferentes formas de agentes.
A Anthropic concentra-se em “alterar problemas reais dentro de códigos reais”. Cursor, Devin, Factory, Ramp — clientes que usam Opus, não para tarefas de brinquedo como “escrever um app de tarefas”, mas para “corrigir uma condição de corrida enterrada há três semanas em um código de 2 milhões de linhas”. A Nvidia, ao implantar Codex para 10 mil funcionários, diz que o ciclo de debug caiu de dias para horas — esse número a Anthropic também consegue mostrar. Opus 4.7 consegue 64,3% no SWE-Bench Pro — é uma linha de produção que já passou por testes reais.
A OpenAI foca em “Operar toda a máquina com agentes”. Terminal-Bench 2.0, OSWorld, Codex rodando shell — tudo aponta para um futuro: IA não só escreve código, ela abre o terminal, digita comandos, controla seu Mac. Brockman, na apresentação, falou em “computação agentica em escala” — não é uma frase de efeito, é o próximo slogan da OpenAI para os próximos dez anos.
A DeepSeek aposta em “o patrimônio inteligente público dos desenvolvedores open source”. Não vai vencer o SWE-Bench Pro, mas elevou o teto do open source a uma pontuação de 3206 no Codeforces. Isso significa que qualquer startup pode rodar um modelo de código quase de nível de competição, sem pagar nada para Anthropic ou OpenAI, usando sua própria máquina.
08 Público-alvo — Os três miram carteiras completamente diferentes
A lista de clientes da Anthropic revela sua direção: PayPal, Hex, Devin, Factory, Ramp, Notion, GitHub Copilot, Stripe, Block — tudo fintech e SaaS corporativo. Essas empresas têm duas características comuns: muito dinheiro, zero tolerância a erros. O preço de 5/25 dólares do Opus 4.7, auditorias de segurança, conformidade, implantação multi-nuvem com Bedrock/Vertex AI/Foundry — tudo voltado para clientes que fecham contratos de seis meses a três anos, pagando milhões por ano. A avaliação da Anthropic na Forge Global ultrapassa 1 trilhão de dólares, maior que os 880 bilhões do OpenAI — o capital investe nessa história de “densidade de clientes corporativos”.
O modelo da OpenAI é uma tríade de consumidores + desenvolvedores + empresas. ChatGPT com quase 1 bilhão de usuários semanais é sua verdadeira barreira. GPT-5.5, no Plus/Pro/Business/Enterprise, tem preços dobrados, mas o fluxo de usuários finais dilui o impacto. O grupo de desenvolvedores do Codex cresceu de dezenas de milhares para milhões, empresas como Nvidia, Stripe, Shopify fazem implantação em larga escala. A escala é sua estratégia — cada unidade de custo é diluída por um denominador gigante.
A DeepSeek mira em um público totalmente diferente. Empresas estatais chinesas, bancos, hospitais, órgãos governamentais; fundos soberanos do Oriente Médio que não querem entregar dados para nuvem americana; farmacêuticas europeias sob GDPR rigoroso; governos de países em desenvolvimento na Ásia e América Latina que querem uma IA soberana. E também um grupo de desenvolvedores hardcore e startups na Silicon Valley: “quero rodar meu modelo sem pagar API”. Esses não chegam a 1 bilhão de usuários, mas representam uma escala diferente — geopolítica e de soberania.
Três carteiras completamente distintas, três estratégias de venda diferentes.
09 Segurança e postura de defesa cibernética — Como as três veem o “modelo como arma”
A Anthropic lançou em abril o Project Glasswing. O Opus 4.7 foi o primeiro modelo de produção a incorporar “detecção automática e rejeição de solicitações de alta risco cibernético”. No relatório técnico, eles explicam: treinaram de forma a reduzir a capacidade ofensiva de rede. CyberGym pontuou 73,1, quase igual ao Opus 4.6 com 73,8 — é uma questão de política, não de capacidade. Mythos Preview atingiu 83,1 no mesmo benchmark, mas só para 12 parceiros, e essa lista é confidencial — vazou há poucos dias (um grupo no Discord adivinhou a URL), a Anthropic publicou um relatório de incidentes.
A OpenAI segue outro caminho. O sistema do GPT-5.5 declara: o risco de rede no nível “High” do Preparedness Framework ainda não é Critical. A estratégia deles não é reduzir a capacidade do modelo, mas colocar classificadores mais rigorosos, autenticação, e um programa de acesso “cyber-permissive” — se você quer usar capacidades ofensivas, precisa se identificar primeiro. Mia Glaese, na apresentação, falou em “primeira versão com identidade verificada” — uma forma de dizer: capacidade eu dou, responsabilidade é sua.
O relatório do DeepSeek V4 não aborda esse tema. A comunidade open source tradicionalmente adota a postura “código aberto, você usa, você responde”. Para reguladores, é um pesadelo; para desenvolvedores independentes, é um paraíso. Mas o risco real é: qualquer um pode rodar na sua GPU um modelo próximo do Opus 4.7, sem camadas de interceptação. Como a regulação vai evoluir, entre o fim de 2026 e 2027, será uma janela crítica.
10 Estratégia de mercado — Três apostas diferentes, mas só uma será a maior
A DeepSeek quer ser o Linux da IA.
Usando open source, custos extremos e chips nacionais, democratizar a infraestrutura de IA global. Quando cada país, empresa e desenvolvedor rodar na sua arquitetura — você não lucra com licença, lucra com ecossistema e impostos. Hoje, o Hugging Face tem milhões de downloads, amanhã cada fabricante de chips nacionais terá SDKs compatíveis, e a primeira linha de código de um novo desenvolvedor será “from deepseek import…”. Essa estratégia foi usada por Linus Torvalds há vinte anos, hoje por Liang Wenfeng. A diferença é que LLMs custam 10 mil vezes mais que sistemas operacionais, há mil vezes mais dinheiro de especulação, e o valor geopolítico é cem vezes maior.
A Anthropic aposta em ser o motor de IA das maiores empresas globais.
Seus clientes não são os bilhões de consumidores, mas as primeiras 10 mil empresas do mundo — com orçamentos de TI e conformidade. Opus 4.7 é “estreito, mas profundo”; Mythos Preview, uma oferta escassa; Bedrock/Vertex/Foundry, distribuição multi-nuvem; a avaliação de US$ 1 trilhão na Forge — tudo isso conta uma história: seus times jurídicos, financeiros, de P&D e suporte, tudo rodando na minha IA, sem downtime. É uma lógica de escritórios de advocacia e bancos de investimento, não de Facebook. Poucos clientes, alto valor, alta barreira de troca.
A OpenAI quer criar o próximo Windows + Office + Google — uma superaplicação.
ChatGPT é seu canal de distribuição (10 bilhões de usuários semanais), Codex é seu lock-in de desenvolvedores, Operator é sua porta de controle de computadores, o novo Mac App é seu espaço na área de trabalho. Brockman falou em “computação agentica em escala” — o que a OpenAI quer fazer não é só um chatbot inteligente, mas a forma como os humanos usam computadores no futuro. Você abre o computador e vê isso, trabalha por isso, gera documentos por isso, responde e-mails por isso, participa de reuniões por isso. É o que Bill Gates quis fazer em 1990, Steve Jobs em 2007, e que a OpenAI pode realizar entre 2027 e 2030. O aumento de preço do GPT-5.5 é uma garantia dessa aposta.
Três caminhos levam a Roma. Mas só um será o maior — e esse maior determinará a distribuição de riqueza na indústria de IA na próxima década.
As três empresas anunciaram suas apostas na mesma semana.
Claude Opus 4.7 é o caminho seguro — estreito, mas profundo, para empresas que querem contratos de três anos e milhões de dólares. Sua vantagem: qualquer empresa que queira usar IA como ferramenta de produtividade, mas tem medo de erros, achará Opus a escolha mais confiável.
GPT-5.5 é o caminho caro — preços dobrados, ambição de superaplicação, liderança em capacidades agenticas de linha de comando e controle de computador. Sua vantagem: se “IA que controla seu computador inteiro” se realizar até 2027, a OpenAI será a Microsoft dessa revolução. Se não, o preço de 5/30 dólares será apenas uma nota de rodapé cara.
DeepSeek V4 é o caminho destemido — open source, preço baixo, chips nacionais, abrindo brechas na barreira de proteção das outras duas. Sua vantagem: se a fragmentação geopolítica continuar, e a IA global se dividir em ecossistemas China e EUA, a DeepSeek será o Linux da China. A probabilidade disso acontecer não é 50%, mas já é muito maior do que há um ano, quando era 5%.
Uma vez mudadas as regras, não há como voltar atrás.
Às 16h30, o vento na California Avenue começou a ficar frio. O copo do Zombie Café estava vazio. Alan dobrou as três cópias impressas, guardou na mochila. Ao sair, o cachorro levantou a cabeça, depois voltou a deitar.