Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Pre-IPOs
Buka akses penuh ke IPO saham global
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Promosi
AI
Gate AI
Partner AI serbaguna untuk Anda
Gate AI Bot
Gunakan Gate AI langsung di aplikasi sosial Anda
GateClaw
Gate Blue Lobster, langsung pakai
Gate for AI Agent
Infrastruktur AI, Gate MCP, Skills, dan CLI
Gate Skills Hub
10RB+ Skills
Dari kantor hingga trading, satu platform keterampilan membuat AI jadi lebih mudah digunakan
GateRouter
Pilih secara cerdas dari 30+ model AI, dengan 0% biaya tambahan
Jangan buru-buru All-in DeepSeek V4, lihat dulu 10 orang profesional ini yang mengungkapkan kata hati mereka
null
Tulisan|Zhou Xinyu Wang Yuchan
Editor|Yang Xuan
Membaca laporan teknis DeepSeek V4, adalah salah satu kegiatan kolektif paling panas di industri AI belakangan ini.
Apakah V4 sangat kuat? Dalam dimensi optimisasi rekayasa, jawabannya tidak perlu diragukan lagi. Dulu, semua orang percaya pada “Estetika Kekerasan dari Scaling Law”—yaitu meningkatkan performa model dengan menumpuk lebih banyak daya komputasi berkualitas tinggi dan skala parameter yang lebih besar. Tapi V4 mengambil jalan yang sama sekali berbeda, mendefinisikan sebuah “Estetika Kontrol dalam Pelatihan Model”:
Ia tidak mengandalkan penumpukan daya komputasi dan parameter secara gila-gilaan, melainkan melalui serangkaian optimisasi kombinasi dan rekonstruksi:
Mekanisme perhatian (membuat model belajar “menangkap poin penting”, seperti saat manusia membaca artikel panjang dan otomatis memperhatikan kalimat kunci)
Arsitektur MoE (Model Ahli Campuran, bisa dipahami sebagai “membuat berbagai ahli bertanggung jawab atas berbagai jenis masalah, setiap kali hanya mengaktifkan sedikit ahli, hemat waktu dan tenaga”)
Pelatihan ulang (setelah model terbentuk secara dasar, dilakukan pelatihan tambahan secara spesifik untuk memperkuat)
Sistem inferensi rekayasa (mengoptimalkan efisiensi setiap bagian saat berjalan secara nyata)
Hasil dari pendekatan ini adalah V4-Pro dalam memproses konteks panjang sekitar satu juta token (sekitar puluhan ribu kata) membutuhkan daya komputasi yang hanya 27% dari generasi sebelumnya V3.2, sementara cache KV yang digunakan untuk menyimpan konteks percakapan sementara (bisa dipahami sebagai “catatan kecil” model saat ngobrol denganmu) telah dikompresi menjadi 10% dari sebelumnya.
Namun, rekayasa hanyalah rekayasa, daftar peringkat hanyalah daftar.
Menilai sebuah model, kita tidak ingin hanya berhenti di parameter di atas kertas, melainkan membahas nilai V4 dalam skenario nyata seperti deployment, pengembangan, dan investasi. Untuk itu, kami mengundang hampir 10 pengembang, pengusaha aplikasi, dan investor untuk melakukan pengalaman dan pengujian selama sekitar tiga hari.
Satu kesimpulan yang kontra intuitif: Dampak DeepSeek terhadap lapisan aplikasi mungkin lebih besar daripada lapisan model.
Selain terkagum-kagum dengan optimisasi rekayasa yang ekstrem, seperti yang diakui DeepSeek sendiri dalam laporan teknis V4: jejak perkembangan sekitar 3 sampai 6 bulan tertinggal dari model tertutup terdepan—hasil V4 saat ini ibarat bertransaksi dengan iblis: memperpanjang keunggulan inferensi dan agen (agent) dengan harga mengorbankan sebagian akurasi.
Produsen model tertutup, sementara ini bisa bernafas lega. Bagi dunia bisnis yang mengutamakan stabilitas dan ketepatan, V4 jelas bukan model yang bisa langsung diterapkan.
Chief Scientist Pine AI, Li Bojie, dan pendiri agen coding terkemuka Chillin, secara jujur menyatakan bahwa stabilitas panggilan alat + tingkat halusinasi harus diperbaiki di level harness (pengikat “tali kekang” dan “sabuk pengaman” untuk mengatur perilaku AI dan mengurangi risiko kesalahan). Implementasi V4 tidak lepas dari “kerangka kerja”.
Namun, arah iterasi otak cerdas ini sering memengaruhi ekosistem aplikasi hilir. Startup aplikasi AI akan menghadapi ujian yang lebih keras dari segi teknologi dan modal.
“Performa model dasar masih dalam iterasi cepat”—kesepakatan industri ini juga berarti aplikasi bisa sewaktu-waktu digulingkan oleh model baru. Seorang investor dana dua mata uang memberi contoh “Yellow Flower Kemarin”: “Workflow, Coding…”
Pendiri dan CEO perusahaan AI “Yueyue Intelligence”, Chen Weipeng, menyimpulkan: ke depan, hambatan utama aplikasi AI adalah mengorganisasi model, agen, skenario produk, dan umpan balik data menjadi sistem produksi yang andal, murah, dan dapat diskalakan.
Sorotan: Tidak hanya kemampuan teks panjang dan pemrograman, tetapi juga kemampuan tinggi dengan biaya rendah
Kata Pengantar: Keunggulan Inti—Kemampuan Kode dan Agen Cerdas
Dalam beberapa evaluasi kunci kode dan rekayasa perangkat lunak, V4-Pro menunjukkan level tertinggi saat ini di antara model open source, hampir setara dengan model tertutup terdepan. Data utama dirangkum sebagai berikut:
AI Pembuatan Gambar
🧑🏫 Co-Founder dan CTO PingCAP, Huang Dongxu
Saya sedang memigrasikan alur kerja Hermes saya ke DeepSeek V4. Sebelumnya saya cukup boros, menggunakan Claude Opus dan GPT5.4 sebagai agen, tapi kemudian saya sadar bahwa sebagian besar pekerjaan sehari-hari sebenarnya tidak membutuhkan kemampuan coding yang sangat tinggi.
Tugas rutin kantor, meliputi: (a)Pengelolaan email harian; (b)Penulisan artikel; ©Manajemen kalender; (d)Ringkasan konten; (e)Penelusuran web.
Sekarang saya sudah sepenuhnya beralih ke DeepSeek V4. Hasilnya jauh lebih baik dari yang saya bayangkan, mungkin karena ada optimisasi khusus untuk bahasa Mandarin, sehingga kemampuan bahasa secara keseluruhan lebih sesuai dengan kebiasaan penutur asli.
Jadi kesimpulan pertama saya: jika saat ini Anda menggunakan model yang lebih mahal sebagai agen asisten kerja harian, Anda bisa cukup tenang beralih ke DeepSeek V4 Pro.
Kemampuannya kira-kira setara Claude Sonnet 4.5 sampai 4.6, tapi harganya hanya seperempat atau kurang dari model top. Sekarang saya hampir tidak lagi peduli dengan biaya agen.
Dalam makalah DeepSeek V4, mereka selalu menekankan konteks 1 juta token, tapi saya merasa ini tidak terlalu penting karena model SOTA saat ini sudah minimal mendukung konteks sebesar itu—hanya saja mereka mengejar ketertinggalan.
Faktanya, poin utama adalah:
Biaya sangat rendah;
Model ini open source dan terbuka.
Saya tidak terlalu khawatir jika Anthropic atau OpenAI berhenti menyediakan layanan, karena beberapa alur kerja saya sebelumnya pernah mengalami hal serupa. Dengan beralih ke DeepSeek V4, rasa aman saya meningkat.
Selanjutnya, soal kemampuan pemrograman. Karena pengujian ini masih singkat, saya belum menggunakannya untuk mengembangkan sistem besar yang sangat kompleks.
Tapi dalam skala beberapa ribu baris kode, atau untuk aplikasi kecil, serta skenario yang melibatkan banyak panggilan ke sistem pihak ketiga (misalnya mengakses Supabase atau TiDB Cloud melalui dokumentasi yang tidak terlalu dikenal), saat ini saya merasa tidak ada masalah besar.
Dalam skala beberapa ribu sampai sepuluh ribu baris kode, keberhasilan V4 one-shot (memberikan contoh dan instruksi sekaligus tanpa debugging tambahan) cukup tinggi.
Jadi, jika Anda hanya membuat situs kecil atau aplikasi sederhana, kemampuan pemrograman DeepSeek pasti jauh lebih baik dari generasi sebelumnya.
Karena saat ini kerangka Harness saya tidak terlalu rumit dalam pengaturan manual, lebih mengandalkan kemampuan kolaborasi model sendiri (menggunakan Slock.ai).
Secara singkat, ada dua poin utama:
Ia mampu berkolaborasi dengan agen yang menggunakan model lain;
Ia menyelesaikan tugas-tugas sederhana/khusus.
Jadi, jika ada model yang cukup kuat (misalnya GPT5.5) yang memberi arahan ke DeepSeek V4 Pro, lalu model tersebut bertanggung jawab menjalankan, saya rasa biaya keseluruhan engineering harness bisa sangat ditekan.
🧑🏫 Wakil Presiden Pusat Teknologi dan Produk Zero One Wanwu, Zhao Binqiang
DeepSeek V4 bukanlah “yang paling serba bisa”, tetapi “yang paling dapat dipercaya”—janji open source yang teguh, laporan teknis lengkap, biaya inferensi sangat rendah, dan seluruh stack teknologi nasional, menjadikannya pilihan model dasar dengan nilai terbaik untuk skenario ToB (enterprise).
Dua hal yang paling mengagumkan dari DeepSeek V4:
Pertama, inovasi arsitektur dasar model. Dalam konteks jendela konteks 1 juta token, tetap mampu melakukan inferensi berkualitas tinggi, berkat inovasi mekanisme perhatian campuran. Mekanisme ini secara sederhana bisa dipahami sebagai: “membaca kasar” untuk memahami makna umum, “membaca teliti” untuk memahami detail secara akurat.
Terutama dalam eksplorasi kompresi konteks yang sangat maju, dan DeepSeek secara terbuka mengungkapkan detailnya dalam laporan teknis. Kejujuran dan semangat open source ini sangat berharga di industri model besar yang kompetitif.
Kedua, adaptasi penuh terhadap ekosistem komputasi nasional. DeepSeek telah mengadaptasi Huawei Ascend 910B/950, melakukan pekerjaan yang sangat detail dalam kuantisasi, mekanisme sparsifikasi, dan optimisasi ahli domain.
Ini berarti dari chip hingga perangkat lunak dasar, hingga pelatihan dan inferensi model, solusi lengkap domestik telah melangkah ke arah yang benar. Meski belum sepenuhnya lepas dari ketergantungan pada ekosistem Nvidia, mereka sudah menemukan arah yang tepat. Betapa sulit dan pentingnya pencapaian ini, tidak perlu ditekankan lagi.
🧑🏫 Chief Scientist Pine AI, Li Bojie
Yang paling mengagumkan adalah DeepSeek mampu menjalankan inovasi arsitektur seperti MoE, CSA+HCA attention hybrid, mHC, Muon, FP4QAT secara nyata di skala 1.6T (1,6 triliun parameter)—yang saat ini merupakan ukuran terbesar open source.
Ini seperti menggabungkan berbagai teknologi canggih yang secara teori sering gagal di skala kecil, ke dalam sebuah mesin raksasa yang stabil beroperasi. Kami sendiri sudah mencoba lebih dari 20 inovasi arsitektur, dan hampir semuanya menunjukkan bahwa “cukup di 7 milyar parameter, tapi gagal saat skala besar atau malah berbalik”.
Sebagian besar inovasi arsitektur model lain juga terhenti di titik ini. Kemampuan DeepSeek untuk menggabungkan berbagai inovasi secara bersamaan di skala terbesar menunjukkan kedalaman akumulasi teknologi pelatihan mereka. Salah satu inovasi, “mHC”, bahkan memperkuat sinyal dari eksperimen 27B hampir 3000 kali, menjadi sekitar 1.6 kali, membuat pelatihan menjadi stabil dan terkendali.
🧑🏫 Wakil Presiden Lenovo Group, Chief Investment Officer Lenovo Venture Capital, Senior Partner, Song Chunyu
DeepSeek membuktikan bahwa “Rasio biaya-performa AI” bisa menjadi keunggulan struktural yang aktif dirancang.
27%, penggunaan memori hanya 10%. Dengan total parameter 1.6T, tetapi setiap kali hanya mengaktifkan 49B parameter, efisiensi sangat tinggi.
Struktur pengurangan biaya ini, ditambah API versi Flash V4 yang biaya 1 yuan per juta token, menjadikan “konteks panjang yang terjangkau” sebagai standar baru aplikasi AI.
🧑🏫 Pendiri dan CEO Yueyue Intelligence, Chen Weipeng
Yang paling membanggakan dari DeepSeek V4 bukan hanya peningkatan kemampuan tertentu, tetapi bahwa ini menandai bahwa model besar domestik telah beralih dari “mengejar kemampuan dasar” ke “berpartisipasi dalam kompetisi sistem Agen”.
Dulu, orang lebih peduli apakah model mampu menjawab, melakukan inferensi, menulis kode; tapi sekarang, yang penting adalah apakah model mampu menyelesaikan tugas kompleks secara stabil, dan bisa diintegrasikan ke produk nyata dengan biaya dan efisiensi yang cukup rendah.
Sayangnya: untuk benar-benar diterapkan, V4 masih kurang “kerangka kerja”
Kata Pengantar: Kelemahan relatif—pengetahuan faktual dan inferensi ekstrem kompleks
DeepSeek secara resmi dan di berbagai platform evaluasi menunjukkan beberapa kelemahan mencolok V4-Pro. Untuk gambaran yang lebih langsung, data kelemahan utama dirangkum dalam tabel berikut:
AI Pembuatan Gambar
🧑🏫 Chief Scientist Pine AI, Li Bojie
Saya terutama menggunakan tugas kode dan agen. Dalam pekerjaan seperti ini:
Kemampuan panggilan alat dan pengetahuan umum dunia dari V4-Pro hampir menyamai versi model terdepan berikutnya (setara dengan Claude 4.6 Sonnet);
Namun, stabilitas panggilan alat + tingkat halusinasi masih menjadi kelemahan besar—dua hal ini harus diperbaiki di level harness (misalnya memperkuat verifikasi, otomatis retry saat gagal, menggunakan basis pengetahuan eksternal agar model lebih “berdasar”, dan mengatur penggunaan alat secara ketat dan jelas), jika tidak, saat tugas berantai panjang, kesalahan akan semakin membesar;
Setelah harness diperbaiki, inferensi biaya keseluruhan bisa jauh lebih rendah dari model terdepan. Ini adalah leverage nyata.
Selain itu, versi V4-Flash sebagai “pembelajaran vertikal” sangat bagus. Apa itu pembelajaran vertikal? Yakni melakukan “fine-tuning” di bidang tertentu dengan data profesional, agar model menjadi pakar di bidang tersebut.
Model super besar 1,6 triliun parameter untuk pelatihan ulang (SFT/RL) terlalu mahal dan tidak mampu dilakukan oleh kebanyakan perusahaan, sedangkan model 200-300 miliar parameter adalah ukuran utama untuk pelatihan ulang pasar. Kami sebelumnya melakukan pelatihan ulang di model 235B (2350 miliar parameter), dan hasilnya jelas lebih lemah dibandingkan V4-Flash dengan ukuran yang sama.
Performanya sudah menyamai generasi sebelumnya dari model open source triliunan, melampaui DeepSeek V3.2 dan Kimi versi lama yang di atas 600B. Flash akan menjadi basis utama untuk fine-tuning bisnis.
🧑🏫 Pendiri Agen Coding Chillin
Kesimpulan dari pengujian internal kami: dalam skenario Agen Coding, DeepSeek V4 setara dengan Claude lebih dari satu tahun lalu.
Masalahnya mungkin terletak pada dua hal, yaitu skala parameter dan data. DeepSeek masih jauh tertinggal dari Anthropic.
Kalau ingin benar-benar diterapkan, V4 masih membutuhkan kerangka kerja khusus seperti SWE-Agent (agen pengembangan perangkat lunak), OpenHands (agen coding open source), Claude Code, OpenClaw. Semua ini perlu konfigurasi tambahan dari pengembang.
🧑🏫 Pendiri dan CEO Yueyue Intelligence, Chen Weipeng
Berdasarkan penggunaan nyata Loopit (produk konten interaktif AI milik Yueyue), terutama dalam skenario Coding, secara obyektif, DeepSeek V4 masih tertinggal dari model tertutup luar negeri yang paling kuat dalam stabilitas dan tingkat penyelesaian tugas panjang yang kompleks.
Perbedaan kemampuan antar model top domestik semakin kecil. Ini menandakan bahwa kompetisi model memasuki tahap baru: di era Agent, kemampuan model memahami konteks panjang, beradaptasi dengan kerangka kompleks, dan menyelesaikan tugas panjang secara stabil, dengan biaya dan kecepatan yang dapat diterima, menjadi sama pentingnya.
Perbedaan nyata bukan hanya dari model itu sendiri, tetapi dari keseluruhan sistem yang terbentuk dari model, pelatihan ulang, kerangka Agent, sistem evaluasi, dan efisiensi rekayasa.
🧑🏫 Wakil Presiden Lenovo Group, Chief Investment Officer Lenovo Venture Capital, Senior Partner, Song Chunyu
Peluncuran V4 tidak menyertakan versi multimodal asli (yaitu model yang mampu memproses teks, gambar, suara sekaligus), yang agak disayangkan di pasar saat ini.
Namun, mengingat strategi mendukung penuh komputasi domestik, ini kemungkinan merupakan pilihan tahap untuk fokus mengatasi masalah inti dasar daya komputasi.
🧑🏫 Wakil Presiden Pusat Teknologi dan Produk Zero One Wanwu, Zhao Binqiang
Mengatakan “tidak sesuai harapan” agak terlalu keras.
Tapi dari sudut pandang aplikasi konsumen (ToC), produk masih belum cukup matang—versi Flash yang melibatkan tugas kreatif dan pemrograman masih kurang kemampuan; versi Pro meskipun mendekati model tertutup top, membutuhkan daya komputasi awal yang tinggi dan memiliki hambatan masuk.
Dampak: AI tidak sekadar menjadi semakin murah
🧑🏫 Pendiri dan CEO Yueyue Intelligence, Chen Weipeng
Satu tren penting adalah bahwa AI tidak sekadar menjadi semakin murah. Biaya panggilan model flagship global sebenarnya meningkat, karena mereka menangani tugas yang lebih kompleks, konteks lebih panjang, dan nilai lebih tinggi. Yang benar-benar cepat menjadi murah adalah model menengah, open source, dan model yang bisa di-deploy sendiri.
Jadi, di masa depan, perusahaan aplikasi tidak hanya akan bertanya “model mana yang paling kuat”, tetapi akan membangun sistem penjadwalan model: tugas mana yang harus pakai model paling kuat, mana yang cukup pakai model dengan rasio biaya-performa tinggi, dan mana yang bisa diisi dengan kerangka Agent dan sistem rekayasa.
DeepSeek V4 memperkaya pasokan model secara lebih fleksibel.
Bagi perusahaan, ini bukan sekadar menggantikan model luar negeri tertentu, tetapi memungkinkan aplikasi melakukan orkestrasi multi-model, deployment mandiri, dan optimisasi biaya secara lebih leluasa.
Ke depannya, hambatan aplikasi AI tidak lagi sekadar panggilan model, tetapi mengorganisasi model, Agent, skenario produk, dan umpan balik data menjadi sistem produksi yang andal, murah, dan dapat diskalakan.
Bagi Loopit, tren ini sangat penting. Kami mengerjakan konten interaktif AI, di mana kemampuan model menentukan batas kreativitas, dan biaya serta kecepatan menentukan skala produksi.
Hanya jika berbagai lapisan model cukup tersedia dan dapat diorkestrasi secara efektif, ide-ide pengguna biasa bisa dihasilkan secara real-time, berinteraksi, dan menyebar. Kemajuan V4 akan mempercepat proses ini.
🧑🏫 Chief Scientist Pine AI, Li Bojie
Di pasar fine-tuning vertikal, model dasar seperti Qianwen, Llama 200-300B secara sistematis digantikan oleh sistem Flash V4.
Semua tim yang melakukan pelatihan ulang di ukuran ini akan melakukan evaluasi ulang; hasilnya, Flash akan melampaui performa model open source seukuran, dan akan menjadi titik awal default untuk model vertikal open source domestik dalam 6 bulan ke depan (dengan dukungan penuh untuk framework inferensi seperti SGLang/vLLM/TileLang).
Ekosistem inferensi Huawei Ascend 950 SuperNode resmi dimulai, dan menantang harga premium chip Nvidia.
Ini adalah solusi lengkap pertama yang berhasil menjalankan “chip domestik + model open source domestik terbaik” (yang tidak didapatkan adaptasi awal dari Nvidia/AMD), dan setelah 950 massal keluar di semester kedua, akan muncul gelombang penggantian inferensi lokal murni di skenario konteks panjang agen;
Dampaknya secara tidak langsung adalah penilaian dan premi Nvidia di pasar China akan dinilai ulang—bukan karena volume penjualan menurun, tetapi karena daya tawar mereka berkurang.
Biaya penggunaan agen yang mampu menyelesaikan tugas panjang dan kompleks secara keseluruhan akan turun secara signifikan.
V4-Pro, dengan input cache ( cache miss ) seharga 1,74 dolar per output 3,48 dolar + KV cache 1 juta token yang efisien + MegaMoE, sudah menekan biaya per token ke 1/6-1/7 dari model terdepan;
Selama industri memperbaiki stabilitas panggilan alat dan tingkat halusinasi di level harness (misalnya validator, grounding eksternal, schema ketat, voting konsistensi), aplikasi multi-langkah dan kode panjang yang sebelumnya tidak praktis karena biaya akan mulai muncul dari kuartal kedua tahun ini, dan titik balik ekonomi agen akan tercapai.
Selain itu, produsen model tertutup terdepan tidak akan menurunkan harga—produk mereka tetap unggul, dan V4 tidak menekan harga.
🧑🏫 Wakil Presiden Pusat Teknologi dan Produk Zero One Wanwu, Zhao Binqiang
Inti dari aplikasi AI ToB adalah: menjaga efektivitas sambil mengendalikan biaya seluruh siklus. Kemunculan DeepSeek V4 menawarkan solusi yang sangat kompetitif.
Versi Flash menutupi tugas sederhana, versi Pro mengatasi skenario kompleks tinggi, dan secara keseluruhan biaya jauh lebih rendah dibandingkan solusi tertutup utama, memungkinkan Zero One Wanwu meningkatkan rasio biaya-keuntungan saat pengiriman.
Lebih penting lagi, open source dari DeepSeek adalah sikap teguh dan tidak goyah, tidak akan tiba-tiba menutup sumber sehingga investasi aplikasi menjadi sia-sia. Sikap open source yang teguh ini memberi kepercayaan berharga bagi pemilihan teknologi perusahaan.
Zero One Wanwu telah memulai evaluasi produk dan verifikasi kemampuan berbasis DeepSeek V4 secara menyeluruh, fokus pada performa di pengaturan produksi, kantor cerdas, pengelolaan investasi, dan skenario inti perusahaan lainnya. Setelah memenuhi standar, mereka akan mempertimbangkan penggantian model lama, agar lebih banyak pelanggan industri bisa menggunakan model domestik terbaik.
Setelah V4 dirilis, saya memperkirakan akan muncul tiga perubahan utama di industri:
Keberhasilan adaptasi DeepSeek dengan Huawei Ascend menandai langkah nyata dalam arah domestikasi penuh “chip + kerangka + model + aplikasi” di industri AI nasional.
Ini sangat dibutuhkan oleh klien pemerintah dan perusahaan yang memiliki persyaratan kepatuhan. Proses substitusi domestik di pasar ToB akan semakin cepat.
DeepSeek dengan harga jauh di bawah model tertutup top mampu mendekati performa mereka, dan efek demonstrasi ini akan meningkatkan performa keseluruhan model open source.
Ini juga akan memaksa produsen model tertutup seperti Anthropic dan OpenAI menghadapi tekanan harga. Profitabilitas industri akan bergeser dari model dasar ke aplikasi industri mendalam, sangat menguntungkan perkembangan jangka panjang AI.
Open source menurunkan ambang masuk model dasar, tetapi kemampuan harness menentukan tingkat implementasi. Dari model open source berkualitas tinggi ke produk perusahaan yang stabil dan andal, ada lapisan penting berupa harness—termasuk penghilangan halusinasi, kepatuhan instruksi, verifikasi kesalahan, injeksi keahlian.
Setiap industri memiliki kebutuhan berbeda; tidak ada satu harness yang cocok untuk semua. Inilah keunggulan utama Zero One Wanwu: berdasarkan evaluasi otomatis, umpan balik otomatis, perbaikan otomatis, dan injeksi keahlian, mereka mampu membangun sistem harness khusus industri secara cepat, sehingga model besar benar-benar bisa digunakan dalam bisnis.
🧑🏫 Wakil Presiden Lenovo Group, Chief Investment Officer Lenovo Venture Capital, Senior Partner, Song Chunyu
Pertama, konteks miliaran token menjadi “standar” di lapisan aplikasi, memicu ledakan agen: V4 akan menurunkan kemampuan konteks panjang menjadi infrastruktur dasar yang umum.
Kedua, kompetisi industri beralih dari “menggigit model” ke “menggigit aplikasi dan data”: setelah performa model open source top mendekati model tertutup dan biaya turun drastis, model tidak lagi menjadi hambatan langka. Fokus investasi dan kompetisi akan beralih ke siapa yang mampu memanfaatkan model dasar ini, membangun siklus data dan aplikasi di bidang medis, keuangan, hukum, dan lain-lain, membentuk keunggulan kompetitif.
Ketiga, rantai industri daya komputasi domestik akan mendapatkan peluang investasi besar: keberhasilan V4 membuktikan bahwa model besar juga bisa meraih “permata di mahkota” daya komputasi domestik. Ini akan mendorong kebutuhan pasti terhadap daya komputasi domestik, memicu gelombang investasi dari desain chip, server, hingga layanan cloud.
Kami memperkirakan, “daya komputasi domestik tahun ini adalah daya komputasi luar negeri tahun lalu”, dan tren industri serta efek pasar modal akan sangat kuat.
Kami akan mengarahkan sumber daya ke proyek yang “cepat komersialisasi, bisa diterapkan di industri, dan mampu membangun hambatan produk”, sambil tetap berinvestasi jangka panjang di arsitektur dasar dan infrastruktur daya komputasi.
🧑🏫 Investor dana dua mata uang
Harapan saya tahun ini: portofolio model dasar (Portfio) yang diinvestasikan bisa melantai dengan lancar.
Setelah DeepSeek memulai pendanaan, pasti akan menyerap banyak dana dari pasar primer (terutama dari dana negara). Bagi beberapa perusahaan model dasar yang belum IPO, pendanaan berkelanjutan tidak lagi berkelanjutan.
Saya juga punya pandangan pesimis: tahun ini pendanaan di lapisan aplikasi akan cukup sulit.
Kemampuan model dasar masih dalam iterasi cepat, artinya banyak aplikasi akan digulingkan. Seperti Coding dan Workflow yang sangat populer tahun lalu, tahun ini sudah jarang disebut lagi di pasar primer.
🧑🏫 Pendiri Agen Coding Chillin
Open source adalah hal baik, dan DeepSeek V4 bisa mendorong komunikasi dan optimisasi lebih jauh. Tapi jarak waktunya cukup jauh, membuat orang merasa agak frustrasi;
V4 akan memaksa produsen model untuk lebih serius menghadapi masalah skala dan data, padahal kedua hal ini sangat sulit diatasi, karena berkaitan dengan volume modal;
Ini juga semakin membuktikan batasan Scaling Law. Peningkatan performa melalui rekayasa terbatas, dan ini memaksa semua orang mencari solusi yang lebih mendasar. Jalan panjang dan penuh tantangan.
Bonus: Panduan praktis DeepSeek V4
Untuk apa cocok?
Pembelajaran pemrograman dan kode: Jika Anda pemula dalam coding atau perlu menulis skrip pribadi, DeepSeek V4 adalah salah satu pilihan terbaik saat ini. Ia mampu memahami konteks secara sangat andal, menghasilkan kode berkualitas tinggi, dan sangat mahir dalam debugging.
Kreasi konten dalam bahasa Mandarin dan CJK (Cina, Jepang, Korea): Baik menulis artikel, menyunting teks, maupun menerjemahkan, V4 menunjukkan performa sangat baik dalam lingkungan Mandarin, Jepang, dan Korea.
Membaca dan menganalisis teks panjang: V4 secara native mendukung jendela konteks hingga 1 juta token. Anda bisa langsung memasukkan seluruh buku, laporan panjang puluhan ribu kata, atau basis kode lengkap, lalu minta dia merangkum atau mengekstrak informasi penting.
Apa yang tidak cocok dilakukan?
Pencarian dan verifikasi fakta objektif: V4 adalah model “inferensi” bukan “ensiklopedia”, performanya lemah dalam mengingat pengetahuan faktual (seperti detail sejarah, informasi entitas tertentu), dan sangat rentan halusinasi. Terutama versi V4-Flash, skor tes tanya jawab faktual hanya 34,1%. Disarankan: jangan gunakan sebagai mesin pencari, verifikasi fakta dengan AI lain yang punya fitur pencarian, atau lakukan verifikasi sendiri.
Pengolahan gambar atau tata letak dokumen: DeepSeek V4 adalah model teks murni, tidak mendukung input/output gambar apa pun (No Vision). Jika perlu analisis grafik atau gambar, gunakan model multimodal lain (seperti GPT-5.4 Mini).
Penulisan kreatif tingkat tinggi dalam bahasa Inggris: Meski mampu menulis dalam bahasa Inggris, outputnya terkadang terasa kaku (stilted phrasing). Jika Anda butuh karya yang sangat alami, otentik, dan penuh kreativitas dalam bahasa Inggris, lebih baik pakai model Barat utama lainnya.
Hal lain yang perlu diketahui:
Berikan ruang berpikir yang cukup: Jika Anda menggunakan versi Pro yang mendukung Chain of Thought (CoT, model akan berpikir langkah demi langkah sebelum menjawab, seperti “membuat draf dulu baru menyalin”), saat menghadapi soal sulit, cobalah dorong model untuk “berpikir beberapa langkah” atau aktifkan mode “Think Max”. Semakin dalam proses berpikirnya, biasanya jawaban yang diberikan semakin akurat.
Toleransi terhadap jawaban yang agak panjang dan bertele-tele: Evaluasi menunjukkan V4 adalah model yang relatif “bertele-tele”, dan kecepatan outputnya juga lebih lambat. Jika Anda hanya ingin jawaban singkat, bisa minta di prompt “Jawablah dalam satu kalimat” atau “Sebisa mungkin singkat”.