Qwen3.6-27B publicación de código abierto «Openclaw, Hermes preferido»: rendimiento de IA iguala a Claude Opus 4.5, costo reducido 14 veces

La serie Qwen de Alibaba, la última bandera de la serie Qwen, Qwen3.6-27B, fue oficialmente de código abierto la noche del 22 de abril de 2026. Este modelo denso de 27B en parámetros, en Terminal-Bench 2.0, igualó en puntuación a Claude 4.5 Opus con 59.3 puntos, y con menos de 1/14 de los parámetros, superó a la generación anterior de bandera MoE de 397B con 76.2 en SWE-bench Verified. El modelo completo, de 55.6 GB, y la versión cuantificada Q4_K_M, comprimida a 16.8 GB, puede ejecutarse en hardware de consumo, permitiendo que frameworks locales como OpenClaw y Hermes Agent tengan por primera vez un cerebro local verdaderamente útil.
(Resumen previo: tras ser señalado y bloqueado por Anthropic, OpenClaw recomienda a los usuarios cambiar a API Key o usar alternativas como Qwen, Kimi, etc.)
(Información adicional: ¿Por qué EE. UU. necesita “censura” y encierra sus IA en laboratorios? China, en cambio, apuesta por modelos de código abierto, ¿por qué?)

Índice del artículo

Alternar

  • Resultados en Benchmark: tres conclusiones más destacadas
  • Especificaciones: rendimiento de miles de millones de parámetros en hardware de consumo
  • ¿Por qué es el cerebro local de OpenClaw y Hermes Agent?
  • Código abierto vs cerrado: la estrategia de Alibaba y el panorama geopolítico

La noche del 22 de abril de 2026, el equipo de Qwen de Alibaba silenciosamente lanzó una bomba en Hugging Face: Qwen3.6-27B fue oficialmente abierto bajo licencia Apache 2.0, permitiendo uso comercial libre. La cifra puede parecer común, pero su significado es extraordinario: una arquitectura densa de 27B (no MoE), que en pruebas en terminal agent igualó por primera vez a la bandera cerrada de Anthropic, Claude 4.5 Opus, y con un tamaño de solo 55.6 GB, derrotó a la generación anterior de monstruos MoE de 397B que requerían 807 GB de memoria de vídeo para funcionar completamente. Despliegue local, agentes ejecutables y hardware de consumo, los tres requisitos que cumple Qwen3.6-27B.

Resultados en Benchmark: tres conclusiones más destacadas

El equipo de Qwen seleccionó 10 pruebas que reflejan la capacidad real de programación de agentes, y los resultados de Qwen3.6-27B son los siguientes:

Benchmark
Qwen3.6-27B
Qwen3.5-27B
Qwen3.6-35B-A3B
Qwen3.5-397B-A17B
Claude 4.5 Opus
SWE-bench Verified
77.2
75.0
73.4
76.2
80.9
SWE-bench Pro
53.5
51.2
49.5
50.9
57.1
SWE-bench Multilingual
71.3
69.3
67.2
69.3
77.5
Terminal-Bench 2.0
59.3
41.6
51.5
52.5
59.3
SkillsBench Avg5
48.2
27.2
28.7
30.0
45.3
QwenWebBench
1487
1068
1397
1186
1536
NL2Repo
36.2
27.3
29.4
32.2
43.2
Claw-Eval Avg
72.4
64.3
68.7
70.7
76.6
Claw-Eval Pass^3
60.6
46.2
50.0
48.1
59.6
QwenClawBench
53.4
52.2
52.6
51.8
52.3

Tres conclusiones clave destacan: Primero, Terminal-Bench 2.0 con 59.3 igual a Claude 4.5 Opus — por primera vez, un modelo denso de 27B en parámetros alcanza en tareas de agentes terminales a la bandera cerrada de Anthropic, mientras que la versión anterior de Qwen3.5-27B solo lograba 41.6, una mejora de 17.7 puntos en una generación. Segundo, SWE-bench Verified con 77.2 supera a Qwen3.5-397B-A17B con 76.2 — el modelo denso de 27B elimina a la generación anterior de bandera MoE de 397B, reduciendo su tamaño de 807 GB a solo 55.6 GB, una reducción de más de 14 veces. Tercero, SkillsBench sube de 27.2 a 48.2 (+77%) y Claw-Eval Pass^3 supera a Claude 4.5 Opus con 60.6 frente a 59.6 — la mayor mejora en esta ocasión es la coherencia en múltiples rondas y pasos, indicando que el modelo mantiene estabilidad y precisión en tareas complejas y continuas.

En conocimientos y razonamiento, igualmente brillante: MMLU-Pro 86.2, MMLU-Redux 93.5, GPQA Diamond 87.8, AIME 2026 94.1, LiveCodeBench v6 83.9, todos superando a sus predecesores con la misma cantidad de parámetros.

Especificaciones: rendimiento de miles de millones en hardware de consumo

Qwen3.6-27B es una arquitectura totalmente densa, con 27B de parámetros que no son activos MoE, sino parámetros completos que se activan en cada inferencia. La longitud de contexto nativa es 262,144 tokens, ampliable mediante el plugin YaRN hasta 1,010,000 tokens (aprox. 1M), ideal para análisis de archivos largos o comprensión en múltiples repositorios en agentes de codificación. El modelo completo de precisión total ocupa 55.6 GB, y con cuantificación Q4_K_M, su tamaño se reduce a 16.8 GB, permitiendo carga en Mac M con 24 GB de memoria de vídeo o GPUs de consumo. La licencia es Apache 2.0, sin costos adicionales para uso comercial. Se recomienda desplegar con SGLang ≥0.5.10 o vLLM ≥0.19.0, y también soporta KTransformers y HF Transformers. Además, Qwen3.6-27B integra un codificador visual, soportando simultáneamente comprensión de imágenes, texto y video, no siendo solo un modelo de texto.

¿Por qué es el cerebro local de OpenClaw y Hermes Agent?

El aviso original menciona dos frameworks de agentes: OpenClaw y Hermes Agent. OpenClaw, popular entre desarrolladores, es un agente local tipo Claude (similar a Claude Code), que en abril fue bloqueado por Anthropic — tras limitar cuentas por incumplimiento de términos, OpenClaw recomienda usar API Key o cambiar a modelos alternativos como Qwen o Kimi. La apertura de Qwen3.6-27B responde a esta necesidad: ejecutable localmente, igualando en benchmark a Claude, con licencia Apache 2.0 y uso comercial libre, cumpliendo los tres requisitos.

Hermes Agent, liderado por NousResearch, es un framework de código abierto que enfatiza un ciclo de autoaprendizaje de habilidades — ejecutar, evaluar, extraer, refinar, recuperar — permitiendo que el agente mejore y almacene técnicas para tareas futuras. A diferencia de OpenClaw, más directo, Hermes se enfoca en evolución a largo plazo, soportando integraciones con NousPortal, OpenRouter, NVIDIA NIM, LM Studio, Ollama, entre otros. La dificultad común de ambos frameworks es correr un modelo verdaderamente potente en local. Qwen3.6-27B, en Claw-Eval (evaluación diseñada para agentes codificadores), obtuvo un promedio de 72.4 y un Pass^3 de 60.6, superando a Claude 4.5 Opus, ofreciendo una opción viable para estos frameworks en entornos locales.

Código abierto vs cerrado: la estrategia de Alibaba y el panorama geopolítico

El código abierto de Qwen3.6-27B no es un evento aislado. Alibaba también liberó en abril pasado, el 16, Qwen3.6-35B-A3B (arquitectura MoE, 35B total, 3B activos), completando con la apertura de la versión densa de 27B la posibilidad de despliegue local completo sin fragmentación MoE; mientras Qwen3.6-Plus y Qwen3.5-Omni permanecen cerrados, comercializados vía API en la nube. Con una estrategia de abrir para construir ecosistema y confianza, y cerrar para monetizar flagships, Alibaba define claramente su camino.

En un contexto más amplio, esta competencia de apertura en IA entre EE. UU. y China está cambiando el panorama. Reportes recientes indican que Meta ha ordenado abandonar la estrategia de “código abierto en IA” y en su lugar, usar Qwen de Alibaba para entrenar IA de pago, como Avocado. Mientras EE. UU. recorta su apertura, China apuesta por modelos abiertos, acelerando un cambio de paradigma. Para desarrolladores y usuarios que buscan despliegue local, la pregunta ya no es “¿debería abrirse?” sino “¿qué modelo abierto es suficiente?”, y Qwen3.6-27B ofrece una opción con una respuesta bastante clara en este momento.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado