Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Promoções
Centro de atividade
Participe de atividades e ganhe recompensas
Indicação
20 USDT
Convide amigos para recompensas de ind.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Anúncio
Atualizações na plataforma em tempo real
Blog da Gate
Artigos do setor de criptomoedas
AI
Gate AI
Seu parceiro de IA conversacional para todas as horas
Gate AI Bot
Use o Gate AI diretamente no seu aplicativo social
GateClaw
Gate Blue Lobster, pronto para usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
10K+ habilidades
Do escritório à negociação: um hub completo de habilidades para turbinar o uso da IA
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas extras
Ilustração do mercado de capitais após a implementação do DeepSeek V4: queda drástica da Zhipu e MiniMax, a NVIDIA entrou em pânico
Título original: Ilustração do mercado de capitais após a implementação do DeepSeek V4: Queda drástica na Zhipu, MiniMax, Nvidia fica nervosa
Autor original:律动BlockBeats
Fonte original:
Reprodução: Mars Finance
DeepSeek V4 finalmente foi lançado. Este é um momento aguardado por quase cinco meses. Modelo principal MoE com 1T de parâmetros + versão Flash com 285B de parâmetros, toda a versão Pro de 1.6T de parâmetros vem logo depois, totalmente de código aberto no GitHub, sob licença Apache 2.0, com pesos e código de implantação liberados simultaneamente.
Assim que o modelo foi lançado, o mercado de capitais respondeu de três maneiras independentes e ao mesmo tempo interligadas.
Reações diferentes do mercado de capitais
A ponta do setor de capacidade de computação de ações A quase toda disparou. Cambricon teve 11 dias consecutivos de alta, com alta de 3,7% em um único dia, acumulando mais de 60% de aumento no mês. Haiguang Information atingiu o limite de alta de 10% durante o pregão, fechando com +8,4%. SMIC (Semicondutores da China) subiu 4,91% na A-share e 8,81% no mercado de Hong Kong. Huahong atingiu +18% no máximo na Hong Kong, fechando com +12%. ETF de chips de inovação Guotai atraiu 2,4 bilhões de yuans em um único dia, atingindo um pico histórico de escala.
Na ponta das empresas de grandes modelos de Hong Kong, a resposta foi diferente. Zhipu (02513.HK) caiu 8,07%, com uma proporção de venda a descoberto de 9,9%. MiniMax (00100.HK) caiu 7,40%, com uma proporção de venda a descoberto de 22,87%. Este último é o dado de venda a descoberto mais alto do setor de IA de Hong Kong nos últimos três meses. Ambas as empresas representam a onda de IPOs de IA em Hong Kong na segunda metade de 2025, com o diferencial de que seu núcleo competitivo, conforme descrito no prospecto, é o mesmo: “Modelo de base de pesquisa própria”.
A outra ponta do Pacífico também reagiu de forma concreta. Nvidia abriu em queda de 1,8%, chegando a uma baixa de -2,6% durante o dia, fechando estável. A análise rápida do mercado da Bloomberg comparou essa correção com o “Momento DeepSeek” de 27 de janeiro, que foi uma venda de pânico, evaporando US$ 600 bilhões em valor de mercado em um único dia. Desta vez, parece mais uma reavaliação, com uma magnitude moderada, mas uma direção clara. Em uma nota de pesquisa de uma instituição de compra, surgiu uma frase nova: “A demanda de inferência de IA na China começou a se desvincular da demanda de inferência de IA na América do Norte.”
Juntando esses três movimentos de mercado, temos a primeira sentença de julgamento após a implementação do V4, dentro de 24 horas. Após o sucesso do código aberto, o dinheiro começou a escolher lados novamente; o que pode ser precificado não é mais apenas o modelo em si, mas onde o modelo está rodando, em qual placa, e em qual cadeia de produção.
30 dias, 11 novos modelos, o V4 acende uma chama na campanha de código aberto
O momento do lançamento do V4 foi uma das razões que ampliaram essa reação.
Voltando os olhos para os últimos 30 dias. De 26 de março a 24 de abril, pelo menos 11 grandes modelos de impacto significativo foram lançados ou tiveram atualizações importantes, abrangendo quase todos os principais players. Anthropic Opus 4.6, Google Gemini 3.1 Pro, OpenAI GPT-5.5, Mistral Large 3, Meta Llama 4, Moonshade Kimi K2.6, Alibaba Qwen3-Next, ByteDance Doubao 2.5 Pro, Tencent Hunyuan 3.0, Kimi K2.6 Plus, e por fim, o DeepSeek V4 lançado na madrugada de 23 de abril.
Em média, um novo modelo é lançado a cada 2,7 dias. Uma velocidade que nem mesmo os gestores de fundos conseguem acompanhar na leitura dos comunicados de lançamento. Mas ao revisar os últimos 30 dias de ativos de IA em Hong Kong e China, há apenas um nome que deixa marcas contínuas no mercado: o GPT-5.5, lançado em 8 de abril, impulsionou a Nvidia a um aumento de 4,2% em um único dia, atingindo o pico. Depois, o DeepSeek V4, em 23-24 de abril, impulsionou uma alta contínua na cadeia de capacidade de computação na China e Hong Kong.
A diferença não está na capacidade do modelo em si. A maioria desses 11 modelos tem diferenças de menos de 50 pontos na classificação do LMArena, estando na mesma faixa de desempenho. A diferença está na combinação de dois fatores.
Primeiro, o código aberto. Entre os 10 principais modelos, apenas o Llama 4 é de código aberto, mas seu acordo de peso inclui uma longa lista de restrições comerciais, recebendo avaliações mornas na comunidade de desenvolvedores na Europa e América. O OpenRouter saiu do top 10 após três dias de lançamento. O V4 usa a licença Apache 2.0, com pesos sem restrições, uso comercial ilimitado e código de inferência liberado simultaneamente. Este é o primeiro modelo de código aberto na última metade do ano a pressionar simultaneamente desempenho, preço e abertura, desafiando o setor de modelos fechados.
Segundo, o momento. Em um contexto de contínua expansão de modelos fechados, a narrativa de código aberto vem sendo repetidamente pressionada. Opus 4.6 elevou o benchmark SWE-Bench para novos patamares, enquanto GPT-5.5 fixou o preço por milhão de tokens em US$ 1,25, um ponto de referência de baixo custo. A questão de se o código aberto pode competir com o fechado já dura dois anos no Vale do Silício. O V4, com uma estimativa de 90 milhões de usuários ativos mensais, colocou essa discussão em pausa.
Segundo um grande gestor de fundos nacional em uma apresentação, “Antes do V4, tínhamos um desconto na avaliação de grandes modelos de código aberto, após o V4 esse desconto começou a se inverter.”
DeepSeek muda a tabela de preços da cadeia de fornecimento de capacidade de computação
No comunicado de lançamento do V4, há uma frase que nunca apareceu em qualquer documento oficial de grandes modelos chineses: “Day 0, adaptação completa ao Cambrian MindSpore 590 e Huawei Ascend 950PR, com código de implantação sincronizado e aberto.” A importância dessa frase só fica clara ao conectar as três linhas de desenvolvimento paralelas dos últimos 12 meses: hardware, software e a reação de Silicon Valley.
A primeira linha é do lado do hardware. Huawei Ascend 950PR será produzido em massa em dezembro de 2025, com capacidade de 1,56 PFLOPS em FP4, HBM de 112GB, sendo a primeira GPU doméstica de IA a rivalizar com a série B da Nvidia em métricas de hardware. Em tarefas de inferência com 1T de parâmetros, a taxa por placa aumenta 2,87 vezes em relação ao H20. O software CANN 8.0, que otimiza a estrutura de inferência de LLMs ao nível de operador, mostra que o V4, em um cluster de 8 placas 950PR, tem uma latência de inferência ponta a ponta 35% menor do que um cluster H100 de escala semelhante. O Cambrian MindSpore 590 é ainda mais agressivo, com capacidade de FP8 por chip comparável ao H100, por menos da metade do preço.
A segunda linha é do lado do software. O branch principal do vLLM integrou em 22 de abril o PR do backend MLU da Cambrian, permitindo que a estrutura de inferência de código aberto suporte nativamente GPUs domésticas não Nvidia. A DCU da Haiguang Information, usando o ecossistema ROCm, segue outro caminho, mas consegue rodar completamente a camada de roteamento MoE do V4. Isso significa que a implantação do V4 não é mais limitada a uma única GPU doméstica, mas pode ser feita em várias. A dependência de fornecedores únicos na ecologia foi quebrada, marcando um ponto de virada na produção.
A terceira linha vem do Vale do Silício. Em 15 de abril, Jensen Huang foi questionado por analistas na conferência da TSMC sobre o progresso do poder de computação doméstico na China, e sua resposta foi fria e específica: “Se eles realmente conseguirem fazer LLMs sem CUDA, será um desastre para nós.” Nove dias depois, o DeepSeek respondeu com um anúncio de Day 0.
A expressão “substituição doméstica” foi usada de forma banal nos últimos três anos, perdendo o significado. Mas após a manhã de 24 de abril, essa questão ganhou dados concretos que o mercado pode avaliar. A capacidade de throughput por placa, a latência de inferência ponta a ponta, o custo de inferência e o código de implantação comercial silenciosamente colocaram essa longa disputa na porta da produção.
A lógica do aumento de 11 dias consecutivos das ações da Cambrian está aqui. Ela deixou de ser uma “empresa de conceito de GPU doméstica” e passou a ser “fornecedora de infraestrutura de inferência do DeepSeek V4”. A mesma lógica explica o aumento de 12% na Huahong, que terceiriza a fabricação do processo de 7nm do 950PR. Cada token rodando em uma GPU doméstica Ascend representa uma parte da capacidade que originalmente iria para Nvidia e TSMC, agora parcialmente retida na região do Delta do Rio das Pérolas.
E o próximo passo já está preparado. No roteiro da Huawei, o 950DT (versão de treinamento) está planejado para entrega no quarto trimestre de 2026, com o objetivo de “treinar modelos de nível semelhante ao V5 ou equivalente em uma infraestrutura de 10.000 GPUs”. Se essa rota for bem-sucedida, a vantagem do CUDA no treinamento de grandes modelos na China será reduzida de “necessária” para “opcional”.