Resultados da pesquisa de "PROS"

Mac Studio executa testes de modelos em grande escala: M3 Ultra, soluções de cluster e expectativas para o M5 Ultra

Em abril de 2026, foram lançados sucessivamente modelos de escala de 1 bilião de parâmetros, como o DeepSeek V4 Pro, o Kimi K2.6, etc., tornando a ideia de “executar um LLM open-source de ponta nas suas próprias máquinas” numa opção viável. Para engenheiros e pequenas equipas que não querem montar uma estação de trabalho H100 própria, mas ainda assim querem ter capacidade completa de inferência local, \\Mac Studio M3 Ultra 256GB\\ é, neste momento, a solução de dispositivo único com melhor relação custo-benefício, e a combinação com clusters Thunderbolt 5 permite avançar até a domínios com 1T de parâmetros. Este artigo compila dados de testes reais a correr grandes modelos no M3 Ultra, soluções de cluster, as vantagens da framework MLX, e a previsão de calendário para o M5 Ultra. Estado das especificações do M3 Ultra: 256GB de memória unificada, 819
ChainNewsAbmedia·8h atrás

DeepSeek V4 Pro no Ollama Cloud: ligação num só clique do Claude Code

De acordo com os tweets da Ollama, o DeepSeek V4 Pro foi lançado em 24/4, já foi adicionado no diretório da Ollama em modo de cloud e, com um único comando, pode chamar ferramentas como Claude Code, Hermes, OpenClaw, OpenCode, Codex, etc. V4 Pro 1.6T params, 1M context, Mixture-of-Experts; a inferência em cloud não descarrega pesos para a máquina local. Para executar localmente, é necessário obter os pesos e correr com INT4/GGUF e GPUs multi-cartão. Os testes de velocidade iniciais foram influenciados pela carga do serviço em cloud, com um valor típico de ~30 tok/s e um pico de 1.1 tok/s; recomenda-se usar o protótipo em cloud e, para produção em larga escala, fazer inferência local ou usar uma API comercial.
ChainNewsAbmedia·12h atrás

A Tencent Cloud integra o framework Hermes com o QClaw, suportando a alternância entre vários modelos, como o DeepSeek-V4 Pro

De acordo com o anúncio oficial da Tencent Cloud a 27 de abril, a ferramenta de ambiente de trabalho QClaw do agente de IA da Tencent Cloud foi oficialmente lançada na versão v0.2.14. A Tencent Cloud afirma que esta é a maior atualização de sempre do QClaw em termos de escala. As principais melhorias incluem a integração da framework Hermes Agent, a atualização do modelo subjacente para o modo de comutação livre e a atualização completa do «Inspiration Plaza» para «Expert Plaza».
MarketWhisper·13h atrás
news-image

DeepSeek V4-Flash chega ao Ollama Cloud, servidor nos EUA: Claude Code, OpenClaw ligação automática com um clique

Ollama Cloud colocou DeepSeek V4-Flash à venda, com inferência em servidores nos EUA, disponibilizando três conjuntos de comandos de acesso rápido para ligar ao Claude Code, OpenClaw e Hermes. V4-Flash/V4-Pro adoptam uma arquitectura MoE, com suporte nativo para contexto de 1M, e reduzem custos com compressão Token-wise + atenção esparsa DSA; em cenários de 1M, os FLOPs por token caem 27% e a cache KV reduz 10%. A API é compatível com OpenAI ChatCompletions e Anthropic, facilitando a alternância entre vários fluxos de trabalho, reduzindo custos e riscos de soberania dos dados.
ChainNewsAbmedia·04-24 10:45

A DeepSeek lançou uma pré-visualização de código aberto da V4, com uma pontuação técnica de 3206, superando o GPT-5.4

A DeepSeek lançou oficialmente a série de pré-visualização V4 em 24 de abril, com código aberto sob a licença MIT, e os pesos do modelo foram disponibilizados na Hugging Face e na ModelScope. De acordo com o relatório técnico da DeepSeek V4, o V4-Pro-Max (modo de máxima força de inferência) obteve 3206 pontos no benchmark do Codeforces, ultrapassando o GPT-5.4.
MarketWhisper·04-24 05:38
news-image

OpenAI lança o GPT-5.5: 12M de contexto, o índice AA atinge o topo, o Terminal-Bench reescreve a referência de agentes com 82,7%

A OpenAI anunciou o GPT-5.5, com destaque para trabalho orientado por agentes e processamento de conhecimento empresarial, e disponibilizou-o em simultâneo no ChatGPT e no Codex. Os pontos principais incluem uma janela de contexto de 12 milhões de tokens, AA Intelligence Index 60, superando o Claude Opus 4.7 e o Gemini 3.1 Pro; o preço é de 5 dólares por cada milhão de tokens de entrada e 30 dólares por cada milhão de tokens de saída, com uma redução de cerca de 40% nos tokens de saída e um aumento de cerca de 20% no custo real.
ChainNewsAbmedia·04-23 19:45

O Claude Code está a retirar a oferta Pro e será necessário subscrever o Max para o utilizar! Um executivo da Anthropic afirmou que ainda está em fase de testes

Recentemente, vários utilizadores descobriram que o site oficial da Anthropic aparenta ter removido o Claude Code do plano Pro (20 USD/mês), passando a disponibilizá-lo através do Max (com preços a partir de 100 USD/mês). A entidade oficial afirmou que se trata apenas de um teste aplicado a cerca de 2% das novas inscrições de prosumer; os utilizadores actuais Pro e Max não são afectados. Esta medida é vista como uma reavaliação dos custos e da estratégia de preços para funcionalidades de elevado consumo e, no futuro, é possível que este tipo de funcionalidades seja retirado dos planos generalistas, seguindo uma abordagem de preços por escalões mais elevados.
ChainNewsAbmedia·04-22 04:34

A Google lança o Deep Research Max: suporta MCP e pode aceder a dados privados de empresas

De acordo com o anúncio do blogue oficial da Google DeepMind, a Google lançou no dia 21 de abril de 2026 a nova geração de agentes de pesquisa autónoma Deep Research e Deep Research Max, construída sobre o Gemini 3.1 Pro, como versão oficial após a versão preview disponibilizada em dezembro de 2025 através da Interactions API. Ambos os agentes estão agora disponíveis, em public preview, nos planos pagos da Gemini API, e os utilizadores de startups e empresas da Google Cloud irão aderindo gradualmente. As duas variantes têm objetivos diferentes: interativo vs profundidade assíncrona A Google irá distinguir os dois agentes por cenários de utilização: Deep Research
ChainNewsAbmedia·04-21 18:14

Artefactos do Claude Live: painel com ligação directa à aplicação, actualização automática em tempo real

De acordo com o anúncio oficial da X da Claude, a Anthropic lançou a funcionalidade Live Artifacts na aplicação de ambiente de trabalho Cowork da Claude em 20 de abril, permitindo que os gráficos, painéis e rastreadores gerados por IA se liguem diretamente às aplicações e ficheiros do utilizador, e que sejam atualizados automaticamente com os dados mais recentes quando abertos. Os Live Artifacts estão disponíveis para todos os utilizadores do Cowork nos planos pagos da Claude (Pro, Max, Team, Enterprise). Funcionalidades principais dos Live Artifacts: de saídas estáticas a uma ligação em tempo real No passado, depois de gerados, os Claude Artifacts ficavam desligados da realidade — se o utilizador quisesse atualizar os dados, só podia voltar a colar os dados e pedir que o Claude os regenerasse. L
ChainNewsAbmedia·04-21 07:45

Contornar as regras da FSC para comprar criptomoedas com cartão poderá ser possível? OdinTin promove serviços de compra de cripto com cartão de débito dos EUA: Wallet Pro

Os serviços OwlPay e Wallet Pro da Oaidingding, que utilizam a tecnologia de stablecoins para concretizar pagamentos transfronteiriços B2B, e em parceria com gigantes internacionais dos pagamentos, mostram a sua ambição de expansão no domínio das fintech. Através de operações no exterior, a Oaidingding contorna as restrições regulamentares de Taiwan, disponibilizando transacções rápidas de activos virtuais; ao mesmo tempo, perante a nova Lei dos Serviços de Activos Virtuais, recentemente promulgada, no futuro deverá tornar-se um modelo de referência para outras empresas estrangeiras que pretendam entrar no mercado de Taiwan.
USDC0,02%
CryptoCity·04-15 10:59