A Anthropic Claude Business Edition foi das primeiras a mudar para faturação por uso. Os “funcionários” de IA ficam mesmo mais baratos?

Quando as empresas se apoiam na “contabilidade de usar a IA em vez de mão de obra para reduzir custos”, a Anthropic mudou as regras do jogo. Este gigante de IA atualizou recentemente a estrutura de faturação do seu plano empresarial do Claude, desagregando o consumo de Claude, Claude Code e Cowork da subscrição mensal de 40 dólares e passando a cobrar separadamente com base na quantidade de Tokens consumidos na prática. Agora, o custo dos “funcionários de IA” parece, afinal, não ser tão barato como o que o mundo diz.

(É possível poupar Tokens com linguagem clássica e conversas com IA? Uma captura de ecrã despoletou uma discussão; engenheiro: afinal, é o inglês que manda)

O fim da era das tarifas fixas: revisão da faturação do plano empresarial do Claude — paga-se o que se utiliza

O relatório do The Information afirma que, num documento empresarial atualizado, a Anthropic escreveu: “A taxa mensal por lugar (seats) cobre apenas o acesso à plataforma e não inclui qualquer utilização; todo o consumo é cobrado separadamente de acordo com as tarifas padrão da API.” No passado, as empresas compravam “tudo incluído”; agora, passaram para “pagamento por uso”.

No regime antigo, a mensalidade por conta empresarial era de cerca de 40 a 200 dólares, com descontos de API de 10% a 15% incluídos. Com o novo plano, embora a subscrição tenha sido reduzida para 20 dólares por mês, todos os descontos de API foram simultaneamente cancelados e as empresas são obrigadas a comprometer-se previamente e a pré-pagarem a estimativa do consumo mensal de Tokens. Não importa se se usa mais ou menos do que o previsto, o valor comprometido é pago na mesma; e quanto maior o compromisso, não resulta num preço unitário mais baixo.

Esta estrutura é uma receita recorrente anualizável e previsível para a Anthropic; para as empresas, é a transferência para estas do custo e do risco associados ao consumo.

“A escassez de recursos de computação” é a verdadeira faísca por detrás do ajuste de preços

A Anthropic chama esta mudança de “otimização do produto”, mas o motor por trás é o custo de computação, que continua elevado. Mesmo que a receita anualizada da Anthropic tenha disparado de 9 mil milhões de dólares para 30 mil milhões de dólares em apenas quatro meses, o que é entregue aos utilizadores não são descontos, mas sim uma reestruturação da composição da receita.

O cerne do problema está na forma como os agentes de IA (AI Agent) consomem recursos: a utilização de um chat tradicional é como “pequenos goles”, mas os fluxos de trabalho dos agentes — que incluem tarefas encadeadas em vários passos, execuções repetidas ou até colaboração entre vários agentes — são “bocados grandes”.

Do lado da oferta, também está apertado. O preço de aluguer de GPUs Blackwell aumentou 48% em dois meses; a CoreWeave aumentou preços em mais de 20% desde o final do ano passado; e bancos dos EUA preveem que a procura por capacidade de computação continue a contrair até 2029. A receita obtida com tarifas fixas já não suportava, há muito, a carga para a Anthropic.

A instabilidade do serviço é o aviso mais real para os clientes empresariais

Além disso, a estabilidade do serviço é outro grande problema. O fundador da Retool, David Hsu, afirmou ao Wall Street Journal que, apesar de o Claude Opus 4.6 ter um desempenho superior ao da OpenAI, no fim ele acabou por levar o seu fluxo de trabalho para a última. A razão é que o serviço do Claude interrompe-se com frequência, fazendo com que muitas vezes não consiga entregar o código a tempo.

No período de 90 dias até 8 de abril deste ano, a API da Anthropic atingiu apenas 98,95% de tempo de funcionamento normal, muito abaixo do padrão de 99,99% praticado na indústria. A decisão de Hsu ilustra uma ideia: na escolha entre fiabilidade do serviço e capacidades do modelo, o que as empresas precisam é de IA com serviço estável.

O custo real dos “funcionários de IA” é muito mais complexo do que o que está na fatura

Hoje, o modelo de preços tradicional baseado em “assinatura mensal” já terminou; o custo total passa a ser recalculado com base no consumo real de Tokens. Negociar descontos de utilização ou cláusulas de ajustabilidade nos contratos, ou controlar ativamente as despesas através da otimização de Prompts, processamento em lote e estratégias de cache, torna-se numa nova questão para as empresas que estão a adotar e a fazer a transição para a IA.

Há alguns dias, a OpenAI também anunciou que o Codex passaria para faturação por Tokens; a GitHub apertou os limites de utilização do Copilot a 10 de abril; e a Windsurf substituiu o modelo de “pontos” por uma quota diária. Toda a indústria de IA está, em paralelo, a anunciar o fim da era das tarifas fixas.

Antes das empresas avaliarem “quantas pessoas ainda poupa a introdução de IA”, talvez ainda seja necessário testar se os utilizadores conseguem produzir obras estáveis e de alta qualidade dentro de um orçamento limitado.

Este artigo, em que a Claude do plano empresarial da Anthropic foi uma das primeiras a avançar para faturação por utilização, será que os “funcionários de IA” realmente ficam mais baratos? apareceu pela primeira vez em Cadeia de Notícias ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

O Governo Trump anunciou um plano de combate à extração de IA, acusando as empresas chinesas de roubo sistemático das capacidades dos modelos

O Gabinete de Política Tecnológica da Casa Branca (OSTP), o assessor presidencial Michael J. Kratsios, emitiu, a 23 de abril, um comunicado oficial, afirmando que a administração Trump tem informação, indicando que entidades estrangeiras (principalmente na China) estão a visar deliberadamente grandes empresas de IA dos EUA, através da extração sistemática de capacidades dos modelos de IA dos EUA por meio de “dezenas de milhares de contas de agentes” e sistemas de tecnologia de jailbreaking, e divulgando em simultâneo quatro medidas de resposta.

MarketWhisper18m atrás

A DeepSeek lançou uma pré-visualização de código aberto da V4, com uma pontuação técnica de 3206, superando o GPT-5.4

A DeepSeek lançou oficialmente a série de pré-visualização V4 em 24 de abril, com código aberto sob a licença MIT, e os pesos do modelo foram disponibilizados na Hugging Face e na ModelScope. De acordo com o relatório técnico da DeepSeek V4, o V4-Pro-Max (modo de máxima força de inferência) obteve 3206 pontos no benchmark do Codeforces, ultrapassando o GPT-5.4.

MarketWhisper34m atrás

Cambricon Conclui a Adaptação Day 0 do DeepSeek-V4, Marco para o Ecossistema de Chips de IA da China

Mensagem do Gate News, 24 de Abril — A Cambricon anunciou hoje que concluiu a adaptação Day 0 do DeepSeek-V4, o mais recente modelo de linguagem grande da DeepSeek, utilizando o seu ecossistema proprietário de software NeuWare e o framework vLLM. O código de adaptação foi simultaneamente disponibilizado como open-source, assinalando o

GateNews51m atrás

A Tencent disponibiliza como open source o Hy3 (versão de pré-visualização), com testes de referência do código melhorados em 40% face à geração anterior

A Tencent abriu oficialmente em código aberto o modelo linguístico de grande dimensão Hy3 em versão de pré-visualização a 23 de abril nas plataformas GitHub, Hugging Face e ModelScope, e disponibilizou em simultâneo um serviço de APIs pagas no seu serviço de nuvem (Tencent Cloud). Segundo a Decrypt, a 24 de abril, a versão de pré-visualização Hy3 iniciou o treino em finais de janeiro e, aquando do calendário de publicação, tinha menos de três meses.

MarketWhisper58m atrás

Investimentos da Carteira da FTX no Valor de 158 biliões Won se não tivesse falido

FTX, a bolsa centralizada de criptomoedas que pediu proteção contra falência ao abrigo do Capítulo 11 em novembro de 2022 devido a escassez de liquidez e saídas de capital, teria mantido investimentos avaliados em aproximadamente 158.796 biliões de won se não tivesse entrado em colapso, de acordo com uma análise citada por Park

CryptoFrontier1h atrás

A Xiaomi revela detalhes do treino do MiMo-V2-Pro: parâmetros do modelo 1T, milhares de GPUs implementadas

Mensagem do Gate News, 24 de Abril — A responsável da equipa de modelos de linguagem da Xiaomi, Luo Fuli, revelou numa entrevista aprofundada que o modelo MiMo-V2-Pro tem, no total, 1 bilião de parâmetros e que foram necessários milhares de GPUs para o treino. Ela referiu que a escala de 1T representa o limiar mínimo para obter

GateNews1h atrás
Comentar
0/400
Nenhum comentário