ZHIPU

Preço de ZhiPu 02513.HK

ZHIPU
R$0
+R$0(0,00%)
Sem dados

*Dados atualizados pela última vez: 2026-04-24 17:04 (UTC+8)

Em 2026-04-24 17:04, ZhiPu 02513.HK (ZHIPU) está cotada a R$0, com um valor de mercado total de --, índice P/L de 0,00 e rendimento de dividendos de 0,00%. Hoje, o preço das ações variou entre R$0 e R$0. O preço atual está 0,00% acima da mínima do dia e 0,00% abaixo da máxima do dia, com um volume de negociação de --. Nas últimas 52 semanas, ZHIPU foi negociada entre R$0 e R$0, e o preço atual está 0,00% distante da máxima das 52 semanas.

Principais estatísticas de ZHIPU

Índice P/L0,00
Rendimento de dividendos (TTM)0,00%
Ações em Circulação0,00

Saiba mais sobre ZhiPu 02513.HK (ZHIPU)

Perguntas Frequentes sobre ZhiPu 02513.HK (ZHIPU)

Qual é o preço das ações de ZhiPu 02513.HK (ZHIPU) hoje?

x
ZhiPu 02513.HK (ZHIPU) está sendo negociada atualmente a R$0, com uma variação de 24h de 0,00%. A faixa de negociação das últimas 52 semanas é de R$0 a R$0.

Quais são os preços máximo e mínimo em 52 semanas de ZhiPu 02513.HK (ZHIPU)?

x

Qual é o índice preço/lucro (P/L) de ZhiPu 02513.HK (ZHIPU)? O que esse indicador revela?

x

Qual é o valor de mercado da ZhiPu 02513.HK (ZHIPU)?

x

Qual é o lucro por ação (EPS) trimestral mais recente de ZhiPu 02513.HK (ZHIPU)?

x

Você deve comprar ou vender ZhiPu 02513.HK (ZHIPU) agora?

x

Quais fatores podem afetar o preço das ações da ZhiPu 02513.HK (ZHIPU)?

x

Como comprar ações da ZhiPu 02513.HK (ZHIPU)?

x

Aviso de risco

O Mercado de ações envolve um alto nível de risco e volatilidade de preços. O valor do seu investimento pode aumentar ou diminuir, e você pode não recuperar a quantia total investida. O desempenho passado não é um indicador confiável de resultados futuros. Antes de tomar qualquer decisão de investimento, avalie cuidadosamente sua experiência, situação financeira, objetivos de investimento e tolerância ao risco, além de realizar sua própria pesquisa. Quando apropriado, consulte um assessor financeiro independente.

Isenção de responsabilidade

O conteúdo desta página é fornecido apenas para fins informativos e não constitui aconselhamento de investimento, aconselhamento financeiro ou recomendações de negociação. Gate não se responsabiliza por qualquer perda ou dano decorrente dessas decisões financeiras. Além disso, observe que Gate pode não conseguir oferecer serviço completo em determinados mercados e jurisdições, incluindo, mas não se limitando aos Estados Unidos da América, Canadá, Irã e Cuba. Para mais informações sobre Locais Restritos, consulte o Contrato do Usuário.

Outros mercados de negociação

ZhiPu 02513.HK (ZHIPU) Últimas Notícias

2026-04-24 05:00

Alerta TradFi Queda: ZHIPU (ZhiPu 02513.HK) Cai acima de 8%

Gate News: De acordo com os dados mais recentes da [Gate TradFi](https://www.gate.com/pt/tradfi), ZHIPU (ZhiPu 02513.HK) registou caiu de 8% num curto espaço de tempo. A volatilidade atual está significativamente acima das médias recentes, indicando uma maior atividade no mercado.

2026-04-24 03:54

Alerta TradFi Queda: ZHIPU (ZhiPu 02513.HK) Cai acima de 6%

Gate News: De acordo com os dados mais recentes da [Gate TradFi](https://www.gate.com/pt/tradfi), ZHIPU (ZhiPu 02513.HK) registou caiu de 6% num curto espaço de tempo. A volatilidade atual está significativamente acima das médias recentes, indicando uma maior atividade no mercado.

2026-04-23 02:02

Ação da Zhipu atinge máximo histórico, sobe mais de 5% na abertura do mercado com ganhos de 800% desde a IPO

Mensagem do Gate News, 23 de abril — Zhipu (02513.HK) disparou mais de 5% na abertura do mercado, atingindo um novo máximo histórico. A ação ganhou quase 800% desde a sua listagem.

2026-04-22 17:00

OpenClaw, Hermes e SillyTavern Confirmados com Suporte no GLM Coding Plan

Mensagem do Gate News, 22 de abril — Zixuan Li, gestor de produto da Zhipu AI, anunciou no X que OpenClaw, Hermes e SillyTavern foram oficialmente assinalados como projectos com suporte no âmbito do GLM Coding Plan. Outras ferramentas de propósito geral serão avaliadas caso a caso. Li também aconselhou os utilizadores a não partilhar credenciais da conta nem utilizar subscrições como acesso à API. Os utilizadores que se deparem com o código de erro 1313 ao seguir as diretrizes são incentivados a contactar a equipa de suporte da Zhipu para obter assistência.

2026-04-22 07:13

A Zhipu AI descontinua a subscrição ilimitada de quota semanal do GLM Coding Plan a 30 de abril

Mensagem de Notícias da Gate, 22 de abril — A Zhipu AI anunciou que irá descontinuar a renovação automática da subscrição do pacote GLM Coding Plan ilimitado de quota semanal, com início às 10:00 (hora de Pequim) de 30 de abril de 2026. A descontinuação afeta os utilizadores que, atualmente, estão subscritos ao plano legado com a renovação automática ativada. Segundo a empresa, a decisão foi impulsionada pelo crescimento sustentado do uso, que tornou o modelo original de quota semanal ilimitada difícil de manter a longo prazo. Os utilizadores afetados receberão dois meses de benefícios equivalentes do novo plano como compensação. Os ciclos de subscrição e os preços atuais permanecem inalterados, e a compensação de dois meses será emitida automaticamente a 30 de abril. Após o período de compensação terminar, os utilizadores que desejem continuar a utilizar o serviço têm de subscrever manualmente o plano mais recente disponível nessa altura.

Postagens populares sobre ZhiPu 02513.HK (ZHIPU)

MetaNomad

MetaNomad

1 Horas atrás
Estava a ler sobre a história da ZTE há pouco tempo e ocorreu-me uma ideia estranha - a guerra pelos chips hoje não é a mesma de há 8 anos. Lembram-se da história da ZTE? Em abril de 2018, o Ministério do Comércio dos EUA lançou uma proibição muito leve: sem chips, sem software, sem nada vindo dos EUA. Uma empresa com 80 mil funcionários e receitas superiores a um trilhão de yuan parou de operar num dia. Sem chips Qualcomm, sem estações base, e sem licença do Android do Google, sem telemóveis. Tudo desmoronou. Levou apenas 23 dias até a ZTE admitir que as suas operações principais já não eram possíveis. Pagou 1,4 mil milhões de dólares para continuar a existir. Mas desta vez, a guerra contra a inteligência artificial está a seguir um caminho completamente diferente. Quando os EUA impuseram as primeiras restrições às exportações dos chips NVIDIA A100 e H100 em outubro de 2022, todos pensaram que era o fim. Depois veio a segunda ronda em outubro de 2023, e a terceira em dezembro de 2024. A escalada contínua, o cerco aperta-se. Mas desta vez, as empresas chinesas não se renderam - escolheram um caminho mais difícil. O verdadeiro problema não são os chips em si, mas algo chamado CUDA. Este sistema de computação foi desenvolvido pela NVIDIA desde 2006, e tornou-se a base de toda a indústria de IA. Todos os principais frameworks, do TensorFlow do Google ao PyTorch do Meta, estão profundamente ligados ao CUDA. Um doutorando em IA começa desde o primeiro dia a aprender dentro de um ambiente CUDA. Cada linha de código que escreve reforça o monopólio da NVIDIA. Até 2025, há 4,5 milhões de desenvolvedores no sistema CUDA, usados por mais de 40 mil empresas globais. Mais de 90% dos desenvolvedores de IA no mundo estão ligados à NVIDIA. Este é o verdadeiro reduto. O CUDA é uma roda sustentável - quanto mais desenvolvedores o utilizam, mais ferramentas e bibliotecas existem, e mais a ambiente prospera, atraindo ainda mais desenvolvedores. Uma vez que esta roda começa a girar, é quase impossível pará-la. Mas os chineses encontraram uma forma de sair deste impasse - e não foi tentando competir diretamente com a NVIDIA pelos chips. A solução veio das algoritmos. De final de 2024 a 2025, todas as empresas chinesas de IA passaram a usar modelos de especialistas mistos. A ideia é simples: em vez de ativar o modelo completo, dividi-lo em vários pequenos especialistas e ativar apenas os mais relevantes para a tarefa. O DeepSeek V3 é um exemplo claro - 671 mil milhões de parâmetros, mas ativa apenas 37 mil milhões durante a inferência. Apenas 5,5% do volume total. O resultado? Custos de treino muito mais baixos. O DeepSeek usou 2048 unidades de processamento H800 e treinou durante 58 dias por um custo de 5,576 milhões de dólares. O GPT-4 custou cerca de 78 milhões de dólares. Uma diferença de um nível completo. E isso refletiu-se diretamente nos preços - o DeepSeek é de 25 a 75 vezes mais barato que o Claude. Em fevereiro de 2026, a quota de modelos chineses no OpenRouter, a maior plataforma de APIs globais, subiu 127% em apenas três semanas. Há um ano, era menos de 2%. Agora aproxima-se dos 60%. Mas isto é apenas para inferência. O problema do treino ainda persiste. Aqui entra o papel dos chips locais. Em 2025, uma empresa chinesa começou a construir uma linha de produção de 148 metros em Qianxiu - do assinatura à produção em apenas 180 dias. Um processador Loongson 3C6000 totalmente doméstico, e uma placa T100 da Taichu Yuanqi da Universidade de Tsinghua. A linha produz cinco servidores por minuto, com um investimento de 1,1 mil milhões de yuan, com o objetivo de atingir 100 mil unidades por ano. Mais importante ainda - estes chips já começaram a suportar tarefas reais de treino. Em janeiro de 2026, a Zhipu AI lançou, em parceria com a Huawei, o modelo GLM-Image, o primeiro modelo avançado de geração de imagens treinado inteiramente com chips chineses locais. Em fevereiro, um enorme modelo "estelar" foi treinado numa infraestrutura de computação chinesa local com dezenas de milhares de unidades de processamento. Isto é uma mudança de paradigma. A inferência precisa de chips comuns, mas o treino exige uma potência computacional enorme e uma largura de banda muito elevada. Isto eleva as exigências em dez vezes. A Huawei Ascend é a solução principal aqui. Até ao final de 2025, o número de desenvolvedores na plataforma Ascend ultrapassou os 4 milhões, os parceiros passaram de 3000 empresas, 43 modelos principais foram treinados na Ascend, e mais de 200 modelos de código aberto foram adaptados. No MWC de março de 2026, a Huawei lançou a nova arquitetura SuperPoD. A potência de processamento do Ascend 910B atingiu o nível do NVIDIA A100. A lacuna ainda existe, mas passou de "inutilizável" para "fácil de usar". Não podemos esperar até que os chips fiquem perfeitos. Temos de começar a implementar em larga escala assim que forem suficientes, usando as necessidades reais do negócio para impulsionar o desenvolvimento. ByteDance, Tencent e Baidu planeiam duplicar as importações de servidores de computação locais em 2026. O Ministério da Indústria e Tecnologia da Informação anunciou que o volume de computação inteligente na China atingiu 1590 EFLOPS. 2026 será um ano crucial para a implementação da computação local. E há outro fator que ninguém tem notado - a eletricidade. No início de 2026, a Virgínia suspendeu a aprovação de novos projetos de centros de dados. Seguiu-se a Geórgia. Illinois e Michigan implementaram medidas restritivas. O consumo de energia dos centros de dados nos EUA atingiu 183 TWh em 2024, cerca de 4% do consumo total. Espera-se que duplique até 2030, atingindo 426 TWh, podendo ultrapassar 12%. O CEO da Arm prevê que os centros de dados de IA consumirã0 20-25% da eletricidade dos EUA até 2030. A rede elétrica americana já está sobrecarregada. A rede PJM, que cobre 13 estados, enfrenta uma escassez de capacidade de 6 GW. Até 2033, os EUA enfrentarão uma lacuna de 175 GW. Os custos de eletricidade no atacado aumentaram 267% nas regiões dos centros de dados. A situação na China é exatamente o oposto. A produção anual de eletricidade é de 10,4 trilhões de kWh, contra 4,2 trilhões nos EUA. A China produz 2,5 vezes mais do que os EUA. O consumo doméstico na China representa 15% do total, enquanto nos EUA é 36%. Isto significa uma energia industrial muito maior, que pode ser direcionada para a computação. Os preços da eletricidade nas regiões das empresas de IA nos EUA variam entre 0,12 e 0,15 dólares por kWh. Na China ocidental, cerca de 0,03 dólares - um quarto a um quinto do preço americano. Enquanto os EUA enfrentam uma crise de eletricidade, a IA chinesa avança silenciosamente para o exterior. Mas desta vez, o que sai não é o produto ou a fábrica, mas o Token - a menor unidade processada pelos modelos de IA. É produzido nas fábricas de computação chinesas e depois transmitido por cabos submarinos ao redor do mundo. A distribuição de utilizadores do DeepSeek conta uma história clara: 30,7% na China, 13,6% na Índia, 6,9% na Indonésia, 4,3% nos EUA, 3,2% na França. Suporta 37 línguas, muito popular em mercados emergentes como o Brasil. 26 mil empresas globais têm contas, 3200 instituições usaram a versão empresarial. Em 2025, 58% das novas startups de IA integraram o DeepSeek na sua infraestrutura tecnológica. Na China, o DeepSeek domina 89% do mercado. Nos países sob sanções, a quota varia entre 40% e 60%. Isto é exatamente como a guerra pela independência industrial há 40 anos. Em Tóquio, em 1986, o governo japonês assinou um acordo com os EUA sobre semicondutores sob forte pressão americana. Os principais pontos: abrir o mercado de semicondutores para que os EUA tivessem pelo menos 20% de quota, proibir a exportação de chips japoneses com licenças abaixo do custo, impor tarifas punitivas de 100% sobre exportações de 300 milhões de dólares. Ao mesmo tempo, os EUA recusaram-se a aprovar a aquisição da Fujitsu pela Fairchild. Em 1988, o Japão controlava 51% do mercado global de semicondutores, enquanto os EUA tinham apenas 36,8%. Das dez maiores empresas mundiais, seis eram japonesas - NEC em segundo lugar, Toshiba em terceiro, Hitachi em quinto, Fujitsu em sétimo, Mitsubishi em oitavo, Matsushita em nono. Mas após o acordo, tudo mudou. Os EUA usaram a Lei 301 e exerceram forte pressão, apoiando ao mesmo tempo a Samsung e a Hynix na Coreia para derrubar o mercado japonês com preços baixos. A quota do Japão em DRAM caiu de 80% para 10%. Em 2017, a quota do Japão no mercado de IC era apenas 7%. Os gigantes saíram, seja por divisão, aquisição ou desânimo. A tragédia do Japão foi aceitar ser o melhor produto num sistema global dominado por uma única potência, sem nunca pensar em construir um sistema independente. Quando a maré virou, perceberam que não tinham mais nada além de produção. Hoje, a China está numa encruzilhada semelhante, mas completamente diferente. Enfrentamos pressões externas enormes - três rodadas de restrições de chips com escalada contínua. Mas desta vez, escolhemos um caminho mais difícil: desde melhorias nos algoritmos, até o salto dos chips locais do inferência para o treino, passando por 4 milhões de desenvolvedores no sistema Ascend, até à disseminação global do Token. Cada passo constrói um sistema industrial independente que a própria Japão nunca conseguiu. Em 27 de fevereiro de 2026, três empresas locais de chips publicaram relatórios de desempenho no mesmo dia. Os resultados foram mistos - metade foi fogo, metade foi água. A primeira aumentou receitas em 453% e lucrou pela primeira vez. A segunda cresceu 243%, mas perdeu um bilhão de dólares líquidos. A terceira cresceu 121%, mas perdeu 800 milhões. O vazio de 95% deixado pelo monopólio da NVIDIA está a ser preenchido gradualmente pelos números das empresas locais. Independentemente do desempenho atual, o mercado precisa de uma alternativa. Uma oportunidade estrutural muito rara, resultado das tensões geopolíticas. As perdas financeiras não são uma falha de gestão - são um imposto de guerra que deve ser pago para construir um sistema ecológico independente. Investimentos em investigação e desenvolvimento, apoio a software, custos humanos de engenheiros a resolver problemas de tradução, um a um. Estes relatórios financeiros refletem com maior sinceridade a verdadeira imagem desta guerra pelo poder de computação do que qualquer outro relatório industrial. Não é uma vitória inspiradora, mas uma batalha feroz travada na linha de frente, com sangue a correr. Mas a forma de guerra já mudou. Há 8 anos, perguntávamos "Conseguiremos sobreviver?". Hoje, a questão é "Qual o preço que temos de pagar para sobreviver?". O próprio preço é o progresso.
0
0
0
0
MarsBitNews

MarsBitNews

5 Horas atrás
Título original: Ilustração do mercado de capitais após a implementação do DeepSeek V4: Queda drástica na Zhipu, MiniMax, Nvidia entra em pânico Autor original:律动BlockBeats Fonte original: Reprodução: Mars Finance DeepSeek V4 finalmente foi lançado. Este é um momento aguardado por quase cinco meses. Modelo principal MoE com 1T de parâmetros + versão Flash com 285B de parâmetros, toda a versão Pro de 1,6T de parâmetros, foi lançada de forma completa no GitHub, sob licença Apache 2.0, com pesos e código de implantação sincronizados. Assim que o modelo foi lançado, o mercado de capitais respondeu de três maneiras independentes e ao mesmo tempo interligadas. Reações diferentes do mercado de capitais A ponta do setor de capacidade de computação das ações A quase toda disparou. Cambricon registrou 11 dias consecutivos de alta, com um aumento de 3,7% em um único dia, acumulando mais de 60% de alta no mês. Haiguang Information atingiu o limite de alta de 10% durante o pregão, fechando com +8,4%. SMIC (Semicondutores da China) subiu 4,91% nas ações A e 8,81% nas ações de Hong Kong. Huahong atingiu um pico de +18% nas ações de Hong Kong, fechando com +12%. ETF de chips de inovação tecnológica Guotai atraiu 2,4 bilhões de yuans em um único dia, atingindo um pico histórico de escala. Por outro lado, as empresas de modelos de grande porte em Hong Kong apresentaram uma reação diferente. Zhipu (02513.HK) caiu 8,07%, com uma proporção de venda a descoberto de 9,9%. MiniMax (00100.HK) caiu 7,40%, com uma proporção de venda a descoberto de 22,87%. Este último foi o maior dado de venda a descoberto em um único dia no setor de IA de Hong Kong nos últimos três meses. Ambas as empresas representam a onda de IPOs de IA em Hong Kong na segunda metade de 2025, com o diferencial de que suas propostas de valor principais nos prospectos de IPOs são a mesma frase: "Modelo de base desenvolvido internamente". A outra ponta do mercado do Pacífico também reagiu de forma concreta. Nvidia abriu em queda de 1,8%, atingindo -2,6% durante o pregão, fechando o dia estável. A análise de mercado da Bloomberg comparou essa correção com o "Momento DeepSeek" de 27 de janeiro, que foi uma venda de pânico, evaporando US$ 600 bilhões em valor de mercado em um único dia. Desta vez, parece mais uma reavaliação, com uma magnitude moderada, mas uma direção clara. Uma nota de pesquisa de uma instituição de investimento institucional mencionou uma frase nova: "A demanda de inferência de IA na China começou a se desvincular da demanda de inferência de IA na América do Norte". Juntando esses três movimentos de mercado, temos a primeira sentença de julgamento após a implementação do V4. Após o sucesso do código aberto, o dinheiro começou a escolher lados novamente; o que pode ser precificado não é mais apenas o modelo em si, mas onde o modelo está rodando, em qual placa, e em qual cadeia de produção. 11 novos modelos em 30 dias, o V4 acende uma chama na comunidade de código aberto O momento de lançamento do V4 foi uma das razões que ampliaram essa reação. Voltando os olhos para os últimos 30 dias, de 26 de março a 24 de abril, pelo menos 11 grandes modelos com impacto significativo foram lançados ou tiveram atualizações importantes, cobrindo quase todos os principais players. Anthropic Opus 4.6, Google Gemini 3.1 Pro, OpenAI GPT-5.5, Mistral Large 3, Meta Llama 4, Moonshade Kimi K2.6, Alibaba Qwen3-Next, ByteDance Doubao 2.5 Pro, Tencent Hunyuan 3.0, Kimi K2.6 Plus, e finalmente, DeepSeek V4 lançado na madrugada de 23 de abril. Em média, um novo modelo é lançado a cada 2,7 dias. Uma velocidade que nem mesmo os gestores de fundos conseguem acompanhar na leitura dos comunicados de lançamento. Mas ao revisar os gráficos de K-line de IA de Hong Kong e China nesses 30 dias, há apenas um nome que deixa marcas contínuas no mercado: GPT-5.5, lançado em 8 de abril, impulsionou a Nvidia a subir 4,2% em um único dia, atingindo o pico. Depois, entre 23 e 24 de abril, o DeepSeek V4 impulsionou a cadeia de capacidade de computação na China e Hong Kong a saltos contínuos. A diferença não está na capacidade do modelo em si. Os 11 modelos no ranking LMArena, na maioria das vezes, diferem em menos de 50 pontos, estando na mesma faixa de desempenho. A diferença está na combinação de duas questões. Primeiro, o código aberto. Entre os 10 principais modelos, apenas o Llama 4 é de código aberto, mas sua licença de pesos inclui uma longa lista de restrições comerciais, sendo mal avaliada pela comunidade de desenvolvedores na Europa e nos EUA, e saiu do top 10 no OpenRouter após três dias. O V4 usa a licença Apache 2.0, com pesos sem restrições, uso comercial ilimitado, e código de inferência sincronizado. Este foi o primeiro modelo de código aberto a pressionar simultaneamente desempenho, preço e abertura, em quase um semestre. Segundo, o momento. Em um contexto de contínua expansão de modelos fechados, a narrativa de código aberto vem sendo repetidamente pressionada. Opus 4.6 elevou o benchmark SWE-Bench para novos patamares, GPT-5.5 fixou o preço por milhão de tokens em US$ 1,25, um ponto de referência de baixo custo. A questão de se o código aberto pode alcançar os modelos fechados já dura dois anos no Vale do Silício. O V4, com uma estimativa de 90 milhões de usuários ativos mensais, colocou essa discussão em pausa. Segundo um grande gestor de fundos doméstico em uma apresentação, "Antes do V4, tínhamos um desconto na avaliação de grandes modelos de código aberto, após o V4 esse desconto começou a se reverter." DeepSeek mudou a tabela de preços da cadeia de fornecimento de capacidade de computação No comunicado de lançamento do V4, havia uma frase que nunca tinha aparecido em qualquer documento oficial de modelos chineses: "Day 0, adaptação completa ao Cambrian Shiyan 590 e Huawei Ascend 950PR, código de implantação sincronizado de código aberto." O peso dessa frase só fica claro ao conectar as três linhas paralelas que se desenvolveram nos últimos 12 meses. Essas linhas paralelas pertencem a hardware, software e à reação do Vale do Silício. A primeira linha está no lado dos chips. O Huawei Ascend 950PR será produzido em massa em dezembro de 2025, com capacidade de 1,56 PFLOPS, HBM de 112GB, sendo a primeira GPU doméstica a competir com a série B da Nvidia em métricas de hardware. Em tarefas de inferência com 1T de parâmetros, o throughput por placa é 2,87 vezes maior que o H20. A pilha de software CANN 8.0, que otimiza o framework de inferência de LLMs ao nível de operadores, mostra que, no benchmark divulgado pelo DeepSeek, a latência de inferência de ponta a ponta em um cluster de 8 placas 950PR é 35% menor que em um cluster H100 de tamanho semelhante. O Cambrian Shiyan 590 é ainda mais agressivo, com capacidade de FP8 por chip comparável ao H100, por menos da metade do preço. A segunda linha está no lado do software. O branch principal do vLLM integrou em 22 de abril o PR do backend MLU da Cambrian, suportando nativamente o GPU doméstico não Nvidia. A DCU da Haiguang Information, usando o ecossistema ROCm, segue um caminho diferente, mas consegue rodar completamente a camada de roteamento MoE do V4. Isso significa que a implantação do V4 não é mais limitada a uma única GPU doméstica, mas pode ser feita em várias. A dependência de fornecedores únicos na ecologia foi quebrada, marcando um ponto de virada na produção. A terceira linha vem do Vale do Silício. Em 15 de abril, Jensen Huang foi questionado por analistas na conferência da TSMC sobre o progresso do poder de computação doméstico na China, e sua resposta foi fria e específica: "Se eles realmente conseguirem fazer LLMs sem CUDA, será um desastre para nós." Nove dias depois, o DeepSeek respondeu com um anúncio de Day 0. A expressão "substituição doméstica" foi usada de forma banal nos últimos três anos, perdendo o significado. Mas após a manhã de 24 de abril, essa questão ganhou dados concretos que o mercado pode avaliar. A capacidade de throughput por placa, a latência de inferência de ponta a ponta, o custo de inferência e o código de implantação comercial silenciosamente colocaram essa longa batalha de narrativa na porta da produção. A lógica por trás do aumento de 11 dias consecutivos de alta das ações da Cambrian está aqui. Ela deixou de ser uma "empresa de conceito de GPU doméstica" e passou a ser uma "fornecedora de infraestrutura de inferência do DeepSeek V4". A mesma lógica explica o aumento de 12% nas ações da Huahong, que terceiriza a fabricação do processo de 7nm do 950PR. Cada token rodando no chip Ascend doméstico significa que parte da capacidade que originalmente iria para Nvidia e TSMC fica retida na região do Delta do Rio das Pérolas. E o próximo passo já está preparado. No roteiro da Huawei, o 950DT (versão de treinamento) está planejado para entrega no quarto trimestre de 2026, com o objetivo de "treinar modelos de mesmo nível ou superiores em uma infraestrutura de 10 mil placas". Se essa rota for bem-sucedida, a barreira de entrada do CUDA no treinamento de grandes modelos na China será reduzida de "necessária" para "opcional".
0
0
0
0
AllInDaddy

AllInDaddy

5 Horas atrás
Percebi algo muito importante na história da inteligência artificial chinesa, e acho que a maioria das pessoas está a perder completamente. Há oito anos, a ZTE enfrentava uma verdadeira catástrofe - uma proibição total dos EUA interrompeu as suas operações de um dia para o outro. 80 mil funcionários, receitas superiores a um trilhão de yuans, e num instante tudo desmoronou. Agora, em 2026, assistimos a uma história completamente diferente. A DeepSeek anuncia que construiu um modelo multimédia completo sem NVIDIA. A diferença? Desta vez, a China construiu um ecossistema verdadeiramente independente. O verdadeiro problema nunca foram os chips em si. Quem fala sobre a proibição de chips está a diagnosticar mal. O que realmente sufoca as empresas de IA chinesas é o CUDA - a plataforma da NVIDIA que domina tudo. Imagine que 90% dos desenvolvedores de IA globais estão ligados a esta plataforma. Cada linha de código, cada projeto, cada equipa aprende nela desde o primeiro dia. Isto é um fosso muito profundo - não se pode simplesmente trocar a "estômago" e passar para outra coisa. Mas a China escolheu um caminho diferente. Em vez de tentar competir diretamente com a NVIDIA, começou a repensar os algoritmos. Modelos de especialistas mistos - uma ideia simples, mas poderosa. Em vez de executar o modelo completo, apenas ativa as partes necessárias. Por exemplo, o DeepSeek V3: 671 mil milhões de parâmetros, mas apenas 5,5% ativados durante a inferência. O resultado? Treinamento com apenas 2048 unidades H800 durante 58 dias por 5,6 milhões de dólares. Compare isto com o GPT-4, que custou cerca de 78 milhões de dólares. A diferença de preço refletiu-se imediatamente - o DeepSeek é de 25 a 75 vezes mais barato que o Claude. Esta diferença de preço mudou tudo. Em fevereiro de 2026, o uso de modelos chineses no OpenRouter aumentou 127% em apenas três semanas. Há um ano, a quota era de 2%, agora está perto de 60%. Mas o que acontece nos bastidores é ainda mais importante - as aplicações passaram de simples conversas para agentes inteligentes que consomem 100 vezes mais tokens. Quando o consumo de tokens se torna enorme, o preço torna-se o fator decisivo. O verdadeiro salto veio dos chips locais. Em Changzhou, construíram uma linha de produção completa em apenas 180 dias. Processadores Loongson 3C6000 e placas Taichu Yuanqi - chips 100% chineses. O mais importante? Começaram a treinar tarefas de verdade. A Zhipu AI treinou o seu primeiro modelo de geração de imagens em chips chineses locais. A China Telecom treinou o seu grande modelo numa infraestrutura de computação chinesa completa. Isto não é apenas inferência - é um treino real. A diferença entre os dois é enorme. A inferência é relativamente fácil, o treino requer uma potência de computação dez vezes maior, maior largura de banda, um ecossistema de software avançado. O Huawei Ascend é o coração deste sistema. 4 milhões de desenvolvedores, mais de 3000 parceiros, 43 modelos principais treinados nele. Em março de 2026, a Huawei lançou o SuperPoD - uma nova arquitetura de computação onde a potência do Ascend 910B atingiu o nível do NVIDIA A100. Ainda não é perfeito, mas a lacuna passou de "inutilizável" para "utilizável". Não esperes perfeição - começa já a implementar e usa as necessidades do mercado para desenvolver chips e software. Há outra vantagem de que ninguém fala muito: a eletricidade. Os EUA enfrentam uma crise energética real. Virgínia e Geórgia suspenderam as aprovações para novos centros de dados. O consumo de eletricidade dos centros de dados americanos pode atingir 12% do total até 2030. A rede elétrica já está sobrecarregada. Os custos de eletricidade por atacado aumentaram 267% em regiões com centros de dados. A China, por outro lado, produz o dobro do que os EUA em eletricidade. O consumo residencial representa apenas 15% do total ( contra 36% nos EUA ), o que significa uma enorme energia industrial disponível. Os preços industriais de eletricidade no oeste da China estão cerca de 0,03 dólares por quilowatt-hora - um quarto a um quinto do preço da eletricidade nos EUA. Esta vantagem enorme no consumo de energia muda completamente o jogo. Chips que consomem muita água e energia tornam-se mais baratos num ambiente com abundância de eletricidade. O que sai agora da China não são produtos ou fábricas - são Tokens. A menor unidade que os modelos de IA processam torna-se uma nova mercadoria digital. Produzidos nas fábricas de computação chinesas, depois enviados por cabos submarinos para o mundo. A distribuição de utilizadores do DeepSeek revela muito: China 30,7%, Índia 13,6%, Indonésia 6,9%, EUA 4,3%. 26 mil empresas globais têm contas. Nos mercados emergentes, a adoção é enorme. Isto lembra-me a história do Japão com os semicondutores nos anos 80. O Japão controlava 51% do mercado mundial em 1988. Mas, após o acordo de semicondutores entre os EUA e o Japão, tudo mudou. Pressão massiva, apoio aos concorrentes, e no final a quota do Japão em DRAM caiu de 80% para 10%. Em 2017, a quota do Japão em ICs era de apenas 7%. A tragédia é que o Japão aceitou ser o melhor produtor num sistema global sem construir um ecossistema verdadeiramente independente. Desta vez, a China está a seguir um caminho completamente diferente. Desde melhorias extremas nos algoritmos, passando por um salto nos chips locais, do inferência ao treino, até 4 milhões de desenvolvedores no sistema Ascend, e finalmente à disseminação global de Tokens. Cada passo constrói um sistema industrial verdadeiramente independente. Os relatórios financeiros publicados a 27 de fevereiro de 2026 contam a história real. A Kimo aumentou as receitas em 453% e lucrou pela primeira vez. A Moi Tun cresceu 243%, mas perdeu um bilhão. A Muxi cresceu 121% e perdeu 800 milhões. Metade é fogo, metade é água. As chamas representam o enorme apetite do mercado. O vazio de 95% deixado por Jensen Huang está a ser preenchido gradualmente. As despesas marítimas são o custo de construir o ecossistema - perdas reais de dinheiro na tentativa de criar uma alternativa ao CUDA. Investimentos em investigação e desenvolvimento, suporte de software, engenheiros no terreno resolvendo problemas de tradução, um a um. Estas perdas não são má gestão - são o imposto de guerra que é preciso pagar. A guerra mudou de forma. Há oito anos perguntávamos: podemos ficar? Hoje, a pergunta é: qual o preço a pagar para ficar? O próprio preço é o progresso.
0
0
0
0