Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Qwen3.6-27B rilis sumber terbuka "Openclaw, Hermes pilihan utama": Kinerja AI menyamai Claude Opus 4.5 biaya diperkecil 14 kali
Alibaba Qwen Series Latest Flagship Qwen3.6-27B Officially Open-Sourced on April 22, 2026, this 27B dense model scored 59.3 on Terminal-Bench 2.0, tying Claude 4.5 Opus, and with less than 1/14 of the parameters, achieved 77.2 on SWE-bench Verified, surpassing the previous 397B MoE flagship’s 76.2. The full model is 55.6 GB, and with Q4_K_M quantization compressed to 16.8 GB, it can run on consumer-grade hardware, making local agent frameworks like OpenClaw and Hermes Agent the first to have a truly usable local brain.
(Background: Named and banned by Anthropic, OpenClaw recommends users switch to API keys or alternative models like Qwen, Kimi, etc.)
(Additional context: US AI needs “censorship” and to be confined in labs! China, on the other hand, fully embraces open-source models—why?)
Table of Contents
Toggle
On the evening of April 22, 2026, Alibaba’s Qwen team quietly pushed a bomb on Hugging Face: Qwen3.6-27B is officially open-sourced under Apache 2.0 license, free for commercial use. The number seems ordinary, but its significance is extraordinary—27B dense architecture (non-MoE), first time matching Anthropic’s closed flagship Claude 4.5 Opus in terminal agent tests, and with a size of only 55.6 GB, beating the previous generation 397B MoE monster that required 807 GB of video memory to run fully. Local deployment, agent operability, and consumer hardware compatibility—all achieved by Qwen3.6-27B.
Benchmark Results: Three Most Notable Conclusions
Qwen team selected 10 benchmarks reflecting real agent programming capabilities, with results as follows:
三個關鍵結論值得單獨標出:第一,Terminal-Bench 2.0 59.3 平 Claude 4.5 Opus——這是 27B dense 模型首次在終端 agent 任務追上 Anthropic 封閉旗艦,而 Qwen3.5-27B 舊版只有 41.6,等於單代提升了 17.7 分。第二,SWE-bench Verified 77.2 超越 Qwen3.5-397B-A17B 的 76.2——27B dense 幹掉上一代 397B MoE 旗艦,模型體積從 807 GB 縮到 55.6 GB,縮小了 14 倍以上。第三,SkillsBench 從 27.2 衝到 48.2(+77%)、Claw-Eval Pass^3 以 60.6 超越 Claude 4.5 Opus 的 59.6——多輪、多步驟一致性是本次最大升級,代表模型在連續執行複雜 agent 任務時不容易中途崩潰或跑偏。
在知識與推理方面同樣亮眼:MMLU-Pro 86.2、MMLU-Redux 93.5、GPQA Diamond 87.8、AIME 2026 94.1、LiveCodeBench v6 83.9,全面超越同引數量的前代。
規格:消費級硬體裝得下的千億級效能
Qwen3.6-27B 是純 dense 架構,27B 引數量並非 MoE 的 active 引數,而是每次推理都完整啟動的真實引數。原生 context 長度 262,144 tokens,透過 YaRN 擴充最高可達 1,010,000 tokens(約 1M),對需要長檔案分析或跨倉庫理解的 coding agent 來說是剛需規格。完整精度模型 55.6 GB,若採用 Q4_K_M 量化,體積壓縮到 16.8 GB,24 GB 視訊記憶體的 Mac M 系列或消費級 GPU 均可直接載入。授權為 Apache 2.0,商業用途無需額外授權費。部署推薦 SGLang ≥0.5.10 或 vLLM ≥0.19.0,KTransformers 及 HF Transformers 亦支援。此外,Qwen3.6-27B 整合了 vision encoder,同時支援圖片、文字、影片理解,並非純文字模型。
為什麼是 OpenClaw 與 Hermes Agent 的本地大腦?
原始快訊點名了兩個 agent 框架:OpenClaw 與 Hermes Agent。OpenClaw 是廣受開發者歡迎的類龍蝦(Claude Code-like)本地 agent 應用,今年 4 月初遭 Anthropic 點名封殺——Anthropic 以違反服務條款為由限制帳號後,OpenClaw 官方建議使用者改走 API Key 方案,或切換到 Qwen、Kimi 等本地替代模型。Qwen3.6-27B 的開源,精準命中了這條替代路線的需求:本地跑得動、benchmark 追到 Claude 級、Apache 2.0 免費商用,三個條件缺一不可。
Hermes Agent 則是 NousResearch 主導的開源 agent 框架,強調「自我學習 skill」迴圈——execute、evaluate、extract、refine、retrieve 五步驟讓 agent 在執行任務後自動提煉技巧並存入記憶庫,下次遇到類似問題時直接呼叫。相比 OpenClaw 偏向直覺操作,Hermes Agent 更強調長期自主演化能力,支援 NousPortal、OpenRouter、NVIDIA NIM、LM Studio、Ollama 等多種後端接入。兩個框架的共同痛點都是:在本地跑一顆真正夠強的模型。Qwen3.6-27B 在 Claw-Eval(專為 coding agent 設計的評測集)以 72.4 平均分與 60.6 Pass^3 超越 Claude 4.5 Opus,給了這兩個框架一個可以認真考慮的本地選項。
開源 vs 封閉:阿里的路線布局與地緣格局
Qwen3.6-27B 的開源並非孤立事件。阿里稍早於 4 月 16 日開源了 Qwen3.6-35B-A3B(MoE 架構,35B 總引數、3B active),這次 27B dense 的開源則補齊了「本地可完整部署、無需 MoE 分片」的空缺;而 Qwen3.6-Plus 與 Qwen3.5-Omni 仍維持閉源,透過雲端 API 商業化。一開一閉,阿里的策略輪廓清晰:用開源建立生態與信任,用閉源旗艦變現。
更大的背景是這場中美 AI 開源競賽的格局翻轉。動區稍早報導,Meta 祖克柏傳下令放棄「開源 AI」路線,轉用阿里 Qwen 訓練付費人工智慧 Avocado——美國科技巨頭收縮開源、中國廠商全力拋開源,這個反向格局正在加速定型。對開發者與本地部署需求者而言,選擇正在從「要不要開源」變成「哪個開源模型最夠用」,Qwen3.6-27B 給了一個此刻看起來答案相當清晰的選項。