Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Qwen3.6-27B publicación de código abierto «Openclaw, Hermes preferido»: rendimiento de IA iguala a Claude Opus 4.5, costo reducido 14 veces
La serie Qwen de Alibaba, la última bandera de la serie Qwen, Qwen3.6-27B, fue oficialmente de código abierto la noche del 22 de abril de 2026. Este modelo denso de 27B en parámetros, en Terminal-Bench 2.0, igualó en puntuación a Claude 4.5 Opus con 59.3 puntos, y con menos de 1/14 de los parámetros, superó a la generación anterior de bandera MoE de 397B con 76.2 en SWE-bench Verified. El modelo completo, de 55.6 GB, y la versión cuantificada Q4_K_M, comprimida a 16.8 GB, puede ejecutarse en hardware de consumo, permitiendo que frameworks locales como OpenClaw y Hermes Agent tengan por primera vez un cerebro local verdaderamente útil.
(Resumen previo: tras ser señalado y bloqueado por Anthropic, OpenClaw recomienda a los usuarios cambiar a API Key o usar alternativas como Qwen, Kimi, etc.)
(Información adicional: ¿Por qué EE. UU. necesita “censura” y encierra sus IA en laboratorios? China, en cambio, apuesta por modelos de código abierto, ¿por qué?)
Índice del artículo
Alternar
La noche del 22 de abril de 2026, el equipo de Qwen de Alibaba silenciosamente lanzó una bomba en Hugging Face: Qwen3.6-27B fue oficialmente abierto bajo licencia Apache 2.0, permitiendo uso comercial libre. La cifra puede parecer común, pero su significado es extraordinario: una arquitectura densa de 27B (no MoE), que en pruebas en terminal agent igualó por primera vez a la bandera cerrada de Anthropic, Claude 4.5 Opus, y con un tamaño de solo 55.6 GB, derrotó a la generación anterior de monstruos MoE de 397B que requerían 807 GB de memoria de vídeo para funcionar completamente. Despliegue local, agentes ejecutables y hardware de consumo, los tres requisitos que cumple Qwen3.6-27B.
Resultados en Benchmark: tres conclusiones más destacadas
El equipo de Qwen seleccionó 10 pruebas que reflejan la capacidad real de programación de agentes, y los resultados de Qwen3.6-27B son los siguientes:
Tres conclusiones clave destacan: Primero, Terminal-Bench 2.0 con 59.3 igual a Claude 4.5 Opus — por primera vez, un modelo denso de 27B en parámetros alcanza en tareas de agentes terminales a la bandera cerrada de Anthropic, mientras que la versión anterior de Qwen3.5-27B solo lograba 41.6, una mejora de 17.7 puntos en una generación. Segundo, SWE-bench Verified con 77.2 supera a Qwen3.5-397B-A17B con 76.2 — el modelo denso de 27B elimina a la generación anterior de bandera MoE de 397B, reduciendo su tamaño de 807 GB a solo 55.6 GB, una reducción de más de 14 veces. Tercero, SkillsBench sube de 27.2 a 48.2 (+77%) y Claw-Eval Pass^3 supera a Claude 4.5 Opus con 60.6 frente a 59.6 — la mayor mejora en esta ocasión es la coherencia en múltiples rondas y pasos, indicando que el modelo mantiene estabilidad y precisión en tareas complejas y continuas.
En conocimientos y razonamiento, igualmente brillante: MMLU-Pro 86.2, MMLU-Redux 93.5, GPQA Diamond 87.8, AIME 2026 94.1, LiveCodeBench v6 83.9, todos superando a sus predecesores con la misma cantidad de parámetros.
Especificaciones: rendimiento de miles de millones en hardware de consumo
Qwen3.6-27B es una arquitectura totalmente densa, con 27B de parámetros que no son activos MoE, sino parámetros completos que se activan en cada inferencia. La longitud de contexto nativa es 262,144 tokens, ampliable mediante el plugin YaRN hasta 1,010,000 tokens (aprox. 1M), ideal para análisis de archivos largos o comprensión en múltiples repositorios en agentes de codificación. El modelo completo de precisión total ocupa 55.6 GB, y con cuantificación Q4_K_M, su tamaño se reduce a 16.8 GB, permitiendo carga en Mac M con 24 GB de memoria de vídeo o GPUs de consumo. La licencia es Apache 2.0, sin costos adicionales para uso comercial. Se recomienda desplegar con SGLang ≥0.5.10 o vLLM ≥0.19.0, y también soporta KTransformers y HF Transformers. Además, Qwen3.6-27B integra un codificador visual, soportando simultáneamente comprensión de imágenes, texto y video, no siendo solo un modelo de texto.
¿Por qué es el cerebro local de OpenClaw y Hermes Agent?
El aviso original menciona dos frameworks de agentes: OpenClaw y Hermes Agent. OpenClaw, popular entre desarrolladores, es un agente local tipo Claude (similar a Claude Code), que en abril fue bloqueado por Anthropic — tras limitar cuentas por incumplimiento de términos, OpenClaw recomienda usar API Key o cambiar a modelos alternativos como Qwen o Kimi. La apertura de Qwen3.6-27B responde a esta necesidad: ejecutable localmente, igualando en benchmark a Claude, con licencia Apache 2.0 y uso comercial libre, cumpliendo los tres requisitos.
Hermes Agent, liderado por NousResearch, es un framework de código abierto que enfatiza un ciclo de autoaprendizaje de habilidades — ejecutar, evaluar, extraer, refinar, recuperar — permitiendo que el agente mejore y almacene técnicas para tareas futuras. A diferencia de OpenClaw, más directo, Hermes se enfoca en evolución a largo plazo, soportando integraciones con NousPortal, OpenRouter, NVIDIA NIM, LM Studio, Ollama, entre otros. La dificultad común de ambos frameworks es correr un modelo verdaderamente potente en local. Qwen3.6-27B, en Claw-Eval (evaluación diseñada para agentes codificadores), obtuvo un promedio de 72.4 y un Pass^3 de 60.6, superando a Claude 4.5 Opus, ofreciendo una opción viable para estos frameworks en entornos locales.
Código abierto vs cerrado: la estrategia de Alibaba y el panorama geopolítico
El código abierto de Qwen3.6-27B no es un evento aislado. Alibaba también liberó en abril pasado, el 16, Qwen3.6-35B-A3B (arquitectura MoE, 35B total, 3B activos), completando con la apertura de la versión densa de 27B la posibilidad de despliegue local completo sin fragmentación MoE; mientras Qwen3.6-Plus y Qwen3.5-Omni permanecen cerrados, comercializados vía API en la nube. Con una estrategia de abrir para construir ecosistema y confianza, y cerrar para monetizar flagships, Alibaba define claramente su camino.
En un contexto más amplio, esta competencia de apertura en IA entre EE. UU. y China está cambiando el panorama. Reportes recientes indican que Meta ha ordenado abandonar la estrategia de “código abierto en IA” y en su lugar, usar Qwen de Alibaba para entrenar IA de pago, como Avocado. Mientras EE. UU. recorta su apertura, China apuesta por modelos abiertos, acelerando un cambio de paradigma. Para desarrolladores y usuarios que buscan despliegue local, la pregunta ya no es “¿debería abrirse?” sino “¿qué modelo abierto es suficiente?”, y Qwen3.6-27B ofrece una opción con una respuesta bastante clara en este momento.