DeepSeek запустив «режим експерта» та «візуальний режим» — це останнє розігрівання перед офіційним виходом V4?

動區BlockTempo

DeepSeek 8 квітня тихо надіслала трирежимне тестування: швидкий, експертний і візуальний — три паралельні потоки розподілу, яке в спільноті сприйняли як останню розминку перед офіційним запуском V4.
(Хронологія подій: DeepSeek V4 відмовляється від NVIDIA, шукає Huawei! Alibaba, ByteDance, Tencent розкуповують чипи підняття?)
(Додатковий контекст: DeepSeek V4 оголосила про відмову від NVIDIA! На якому етапі зараз триває битва за «незалежність обчислювальних потужностей» у китайському AI?)

Зміст статті

Перемикач

  • Трьохсмуговий розподіл: швидкий, експертний, візуальний — кожен займається своїм
  • Суперечки щодо експертного режиму: це різниця в архітектурі чи робота з підказками?
  • Справжній зміст V4: якщо обчислювальні потужності справді від’єднані

8 квітня вночі DeepSeek синхронно оновила сайт і застосунок: інтерфейс став містити три варіанти режимів. Це не повноцінний повний офіційний запуск, а попереднє тестування для частини користувачів, але щойно з’явилося повідомлення — спільнота одразу пов’язала це з графіком релізу V4.

Трьохсмуговий розподіл: швидкий, експертний, візуальний — кожен займається своїм

Розподіл трьох режимів доволі чіткий:

Швидкий режим (Fast Mode) — варіант за замовчуванням, орієнтований на щоденні діалоги та миттєві відповіді. Використовується легший низьколатентний модельний варіант; без обмежень за використанням. Підтримка вкладень — лише витяг тексту; зображення або голос не обробляються.

Експертний режим (Expert Mode) призначений для складних завдань міркування, підтримує режим глибокого мислення. За даними практичних тестів у спільноті, одне міркування може активувати понад 500 секунд часу на мислення. У години пік у цьому режимі потрібно чекати, і він не підтримує вкладення та завантаження голосу. Наразі режим усе ще перебуває на етапі тестування й не доступний для всіх користувачів.

Візуальний режим (Vision Mode) — найнаочніший із трьох із погляду символіки. Це перший випадок, коли DeepSeek офіційно підтримала візуальне введення на споживчому рівні: мультимодальні можливості більше не є лише технічним варіантом на рівні API, а безпосередньо спрямовані на звичайних користувачів.

Загальна логіка така: розподіляти витрати обчислювальних ресурсів залежно від типу завдання. Високочастотні сценарії з низькими потребами — у швидкий канал; задачі з високими обчисленнями для міркування — в експертний канал; введення тексту й зображень — у візуальний канал. Така конструкція сама по собі не є новою, але DeepSeek — перша серед лідерів китайських моделей, яка зробила це на рівні споживчого продукту.

Суперечки щодо експертного режиму: це різниця в архітектурі чи робота з підказками?

Обговорення в спільноті щодо цього тесту дуже швидко зосередилися на одному технічному питанні.

Деякі тестувальники з’ясували, що якість відповідей експертного режиму порівняно з швидким режимом зросла лише незначно — різниця не така, як очікували. Найважливіше ж те, що один із користувачів напряму запитав саму модель і отримав відповідь: базові архітектури в обох режимах однакові, а відмінності головно походять від коригування system prompt.

Якщо це правда, то «експертний режим» за своєю суттю ближчий до налаштованої системної підказки, а не до окремої моделі міркування.

DeepSeek не надала офіційної відповіді на це зауваження. З зовнішнього погляду є два можливі тлумачення: перше — це лише тимчасова конфігурація на етапі поступового розгортання, а справжнє розділення моделей активують після запуску V4; друге — мета такого розшарування з самого початку не в перемиканні на рівні моделей, а в контролі споживання обчислювальних ресурсів через різний «бюджет міркувань» і системні налаштування, щоб більше користувачів могли користуватися одночасно.

Справжній зміст V4: якщо обчислювальні потужності справді від’єднані

Самі по собі три режими в інтерфейсі — це оновлення на рівні користувацького досвіду. Але саме V4, з якою це пов’язано, — головна «вага» цього оновлення.

Команда DeepSeek підтвердила, що V4 перенесено на квітень; головна причина — глибока адаптаційна робота під чипи Huawei Ascend. Відомі технічні специфікації виглядають доволі агресивно: масштаб 1 трлн параметрів, SWE-bench тест на здатність до кодування з 81% проходження, ціна API $0.30/MTok, а також власна технологія довготривалої пам’яті Engram: умовний механізм пам’яті, який дозволяє моделі зберігати вподобання користувача й контекст між діалогами.

Але що в V4 варто особливо спостерігати — це вибір обчислювальної «підкладки».

Якщо V4 справді буде повністю реалізована на вітчизняних чипах Huawei Ascend і Cambricon тощо, вона стане першою моделлю загального призначення в споживчому сегменті, яка масштабуватиметься, повністю обминаючи екосистему NVIDIA CUDA (але, оскільки ми знаємо, що в Китай потрапляє велика кількість чипів NVIDIA контрабандою, реальна картина за лаштунками ще складніша).

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів