Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Ніхто краще за Nvidia не розуміється на «наступному поколінні обчислень штучного інтелекту»
Джерело: Гек Парк
Автор: Сюй Шань
«Я впевнений, що це справжній технологічний бенкет. Сьогодні кожен із присутніх представляє екосистему NVIDIA». На відкритті GTC 2026 року, той чоловік у чорній шкіряній куртці — Хуанг Женьхун, одразу ж виходячи на сцену, демонструє свою фірмову впевненість.
На відміну від попередніх років, цього разу святкуємо 20-річчя екосистеми CUDA. Відкриваючи захід, Хуанг розповідає, як NVIDIA поступово створювала свою «міцну стіну» — від Geforce до трасування променів і штучного інтелекту. «Зараз екосистема CUDA вже сформувала «економіку даних».» За його словами, CUDA стала основою для створення бізнес-імперії.
На цій презентації Хуанг представив Vera Rubin — спеціальний чіп для штучного інтелекту, з обчислювальною потужністю 3.6 екзафлопсів. У поєднанні з новим раком, його продуктивність на мегават зросла у 35 разів. Також він анонсував CPU Vera, розроблений для максимальної однониткової продуктивності.
Ще важливіше, NVIDIA представила корпоративне рішення OpenClaw — NemoClaw. Його можна безпосередньо завантажити, використовувати і доопрацьовувати, а також інтегрувати з усіма SaaS-компаніями світу. У порівнянні з цим, у цьому році на основних виступах NVIDIA менше уваги приділяла роботам, автопілотам і квантовим обчисленням.
Після цієї промови виникає передчуття: ми стоїмо на початку нової революції у обчислювальній платформі. Як і у попередні зміни, що породили Google і Amazon, у цю хвилю AI-буму народжуються нові «гіганти штучного інтелекту», які змінюють світ.
Хуанг має довгий список компаній, які він може назвати — це його впевненість. Він не лише визначає обчислення, а й, використовуючи AI як опору, силою привертає фінанси, медицину, виробництво і роздріб у «епоху AI», керовану GPU.
Знову NVIDIA бачить майбутнє AI, і зараз він тягне весь світ у цю нову епоху.
01 Vera Rubin: 7 проривних чіпів, 5 систем рівня раку, 1 суперкомп’ютер
«За десять років обчислювальна потужність зросла у 40 мільйонів разів». NVIDIA підсумовує, що за останнє десятиліття обчислювальні можливості стрімко зростали відповідно до трьох основних законів розширення, від передтренування і тонкого налаштування до дедалі більш універсальних систем штучного інтелекту, і попит на обчислення зберігає зростання у геометричній прогресії.
У епоху AI-агентів NVIDIA представила Vera Rubin — систему, створену для всього життєвого циклу штучного інтелекту. Вона переосмислює CPU, пам’ять, мережі та безпеку, необхідні для штучних агентів.
За параметрами, Vera Rubin оснащена NVLink 6, загальна обчислювальна потужність досягає 3.6 EFLOPS. Це стане ключовим двигуном для епохи AI-агентів. Крім того, порівняно з попереднім поколінням, Vera Rubin повністю охолоджується рідиною, всі традиційні кабелі зникли.
За конфігурацією, рами Vera CPU розроблені для оркестрування і загальних навантажень. Рамки STX базуються на BlueField‑4 для AI-орієнтованого зберігання. За допомогою технології Spectrum‑6 для оптичної інтеграції досягається масштабованість і підвищення енергоефективності.
Рамки Groq 3 LPX глибоко інтегровані з Vera Rubin, LPU від Groq має 230MB SRAM на кристалі, що прискорює обчислювальні процеси.
У сукупності, ця система забезпечує зростання пропускної здатності у 35 разів на мегават. Без сумніву, платформа Vera Rubin — це революційний AI-суперкомп’ютер, створений із семи чіпів і п’яти ракових систем.
Під час обговорення дизайну продукту, Хуанг вважає, що великі мовні моделі стануть ще більшими, кількість токенів зросте, а швидкість — прискориться, щоб забезпечити швидше мислення. Водночас, вони будуть часто звертатися до пам’яті, що створює високі вимоги до систем зберігання — KV-кеш, структуровані дані QDF, неструктуровані QVS тощо. Тому системи зберігання у епоху AI потрібно переписати.
У епоху агентів AI використовуватимуться різні інструменти, і швидкість роботи браузерів, віртуальних ПК має бути високою. Тому NVIDIA створила новий CPU Vera, орієнтований на високу однониткову продуктивність, з високою пропускною здатністю і ефективністю. Це єдина у світі CPU на базі LPDFR5X, що забезпечує максимальну цінність за швидкодією і енергоефективністю.
«Ми створили цей CPU, щоб він працював у парі з системою раків і підтримував обробку завдань штучних агентів. Вже почали масове виробництво. Ми не планували продавати його окремо, але зараз попит дуже високий. Це стане нашим бізнесом на сотні мільярдів доларів. Я дуже задоволений командою, яка розробила цю архітектуру», — сказав Хуанг.
Він також показав Rubin Ultra — нову версію, яка відрізняється від звичайного Rubin, що вставляється горизонтально. Rubin Ultra використовує нову раму Groq, вставляючи її вертикально. «Ця рама дуже важка, я її не піднімлю, тому й не буду пробувати».
На задній панелі, NVIDIA відмовилася від традиційних мідних кабелів. Вони вважають, що мідь має обмеження на довжину передачі, тому використовують нову систему для підключення 144 GPU — NVLink нового покоління. Вона також встановлюється вертикально, під’єднуючись до задньої панелі. Передня частина — обчислювальна, задня — NVLink-комутатор, що разом утворює гігантський комп’ютер.
Повертаючись до питання, яку реальну вигоду дає нова архітектура чіпів, Хуанг зазначає, що вона вплине на ринок токенів і їх цінову політику.
«Токени — це новий товар масового попиту. Як і будь-який товар, вони з часом стають більш структурованими і класифікованими», — прогнозує він. Він виділяє кілька рівнів токенів:
«Чим більша модель і чим довший контекст, тим точніше і розумніше буде результат; швидкість — більше можливостей для мислення і ітерацій. Чим розумніша модель, тим дорожча вона стає. Наприклад, до 45 доларів за рівень», — вважає він. Майбутнє споживання токенів змінить усе.
За його сценарієм, якщо дослідник щодня використовує 50 мільйонів токенів, за ціною 150 доларів за мільйон, для дослідницької групи це цілком прийнятно. «Це — майбутнє AI». З точки зору клієнта, він пропонує перерозподілити ресурси: 25% — на безкоштовний пакет, 25% — на середній, 25% — на преміум, і 25% — на ексклюзивний. Якщо дата-центр споживає лише 1 гігават, клієнт може самостійно визначити розподіл. Безкоштовний пакет залучає більше користувачів, преміум — обслуговує найцінніших клієнтів. Це визначає доходи.
За такою моделлю, використовуючи платформу Blackwell, можна отримати у 5 разів більше доходу, ніж з Hopper. Vera Rubin — у 5 разів ефективніше за Blackwell.
Vera Rubin | Джерело: NVIDIA
Groq — це детермінований процесор потоків даних із статичним плануванням і компіляторною архітектурою. Всі таймінги — передбачені і плануються заздалегідь, без динамічного управління. Архітектура обладнана великою пам’яттю HBM, орієнтована на дедуктивне обчислення.
Зараз Groq 3 LPU вже у серійному виробництві, і очікується, що у третьому кварталі почнеться поставка продукту Groq LP.
Щодо Vera Rubin, то хоча раніше зразки Grace Blackwell були складними у налаштуванні і вимагали імітації 72 з’єднань, перша серія Vera Rubin вже протестована і запущена у роботу на платформі Microsoft Azure.
Зараз NVIDIA активно виробляє Vera Rubin і GB300, забезпечуючи тисячі систем щотижня.
Наступна архітектура чіпів NVIDIA має назву Feynman.
Крім того, Groq і Vera Rubin стануть ключовими компонентами AI-заводів NVIDIA.
Один чіп Groq має лише 500MB пам’яті; чіп GPU Vera Rubin — 288GB HBM4.
Модель з трильйоном параметрів потребуватиме багато чипів для зберігання. Але поруч із Vera Rubin можна зберігати величезний кеш KV для систем AIGC.
Таким чином, NVIDIA реорганізувала ресурси для обчислень у AI — найкращі завдання призначені для найкращого чіпа.
За задумом Хуанга, частина уваги у моделях — це увага у декодері, що потребує багато обчислень і виконується на Vera Rubin; генерація токенів — на Groq.
Завдяки спеціальним Ethernet-інтерфейсам, ця парна конфігурація зменшує затримки майже удвічі. За допомогою програмного забезпечення Dynamo, архітектура Vera Rubin у поєднанні з Groq LPU підвищує продуктивність дедуктивних процесів у 35 разів.
02 NemoClaw: комерційна платформа AIOS
«OpenClaw — найпопулярніший відкритий проект у історії людства, і за кілька тижнів він досяг таких результатів. Його швидкість розвитку навіть перевищує Linux у минулому», — говорить Хуанг. OpenClaw може взаємодіяти з будь-яким модальним інтерфейсом, розуміє їх; він може надсилати повідомлення, SMS, листи. Має повний набір IO.
«OpenClaw відкрив операційну систему для штучних агентів. Це так само, як Windows колись дозволив створювати персональні комп’ютери, а тепер OpenClaw дає можливість створювати персональні штучні агенти».
Хуанг вважає, що для кожної компанії, кожного софтверного гіганта і кожного керівника важливо визначити свою стратегію OpenClaw.
«Як і нам потрібна стратегія Linux, HTTP, HTML — що започаткували епоху інтернету; Kubernetes — що зробив мобільне хмарне середовище. Сьогодні кожна компанія має мати свою стратегію OpenClaw, тобто стратегію систем штучних агентів. Це новий тип комп’ютерів».
Він вважає, що у майбутньому робочий стиль компаній і навіть оплата праці зміняться.
До появи OpenClaw, IT-інфраструктура базувалася на «датасцентрах» — великих кімнатах і будівлях, де зберігалися дані, файли і структуровані дані компаній. Потік даних проходив через інструменти, системи обліку і робочі процеси, закладені у IT, і перетворювався на інструменти для людей і цифрових працівників. У старій індустрії софтверні компанії створювали інструменти, зберігали файли і допомагали компаніям їх інтегрувати.
Майбутня структура компаній | Джерело: NVIDIA
Але у епоху AI-агентів і штучного інтелекту кожна IT-компанія, кожна SaaS-компанія стане «агентською сервісною компанією» (Agent-as-a-Service, AAS).
Але тут є важливе питання — у мережі компанії системи AI-агентів можуть отримувати доступ до конфіденційної інформації, виконувати код і спілкуватися з зовнішнім світом. Вони цілком можуть отримати доступ до даних співробітників, ланцюгів поставок, фінансових секретів і передати їх, що створює ризики безпеки.
Після цього NVIDIA представила власний референсний проект NVIDIA OpenClaw — Open NemoClaw.
NemoClaw | Джерело: NVIDIA
Він містить повний набір інструментів для штучних агентів, зокрема модуль OpenShell, який вже інтегрований у OpenClaw. Користувачі можуть безпосередньо завантажувати, використовувати і доопрацьовувати його, а також підключати до стратегічних систем усіх SaaS-компаній світу.
Крім того, користувачі можуть інтегрувати ці системи для реалізації безпечних стратегій, налаштовувати мережеві бар’єри і маршрути приватності, щоб захистити внутрішнє середовище компанії і забезпечити безпечне функціонування агентів. Open NemoClaw підтримує створення власних агентів із використанням унікальних моделей.
NemoClaw з моделями NVIDIA у рейтингу продуктів для систем штучних агентів | Джерело: NVIDIA
Він вважає, що у майбутньому найпопулярнішою кадровою стратегією у Кремнієвій долині стане: «Ця робота з додатковим токен-лімітом».
Тоді базова річна зарплата співробітника може становити кілька сотень тисяч доларів, а компанія додатково виплачуватиме їм половину зарплати у токенах, що збільшить їхню продуктивність у 10 разів.
У майбутньому кожна софтверна компанія стане агентською. Вони будуть виробляти токени, використовувати їх і пропонувати клієнтам.
03 Фізичний AI: BYD, Geely приєдналися до компаній NVIDIA Robotaxi, Disney Snow White у ролі головних героїв
Після обговорення застосувань, Хуанг переключився на фізичний AI і разом із командою представив нові рішення.
Наразі NVIDIA має три типи комп’ютерів для тренування, для генерації даних і симуляцій, а також для внутрішніх систем автомобілів.
Він оголосив про нових партнерів. «Час ChatGPT для автопілотів настав. Ми впевнені, що автомобілі цілком можуть стати повністю автоматичними», — сказав Хуанг.
NVIDIA оголосила про нових партнерів для платформи автоматичних таксі: BYD, Hyundai, Nissan і Geely. Ці виробники щороку випускають 18 мільйонів автомобілів. Разом із вже приєднаними Mercedes, Toyota і GM, кількість машин, що підтримують Robotaxi, стане дуже великою. NVIDIA також планує підключити ці автомобілі до мережі операцій у кількох містах.
Майбутнє — це перетворення звичайних радіостанцій у «NVIDIA Aerial AI RIM» — інтелектуальні базові станції для Robotaxi. Вони зможуть аналізувати дорожню ситуацію, розумно налаштовувати промені і зменшувати енергоспоживання.
Він також зазначив, що за допомогою Alpamayo автомобілі вже мають дедуктивні можливості і можуть безпечно і розумно рухатися у різних сценаріях. Водії зможуть запитати: «Hey Mercedes, можемо їхати швидше?», і автомобіль відповість: «Звичайно, я зараз прискорюся». За допомогою симуляцій і нейронних моделей вони генерують величезну кількість даних і масштабують стратегії.
Цього разу NVIDIA представила кілька відкритих інструментів: Isaac Lab для тренування і оцінки роботів у симуляції, Newton — масштабований GPU-ускорений фізичний симулятор, Cosmos — модель світу для нейронних симуляцій, GR00T — відкриту базову модель для робототехніки.
У завершенні виступу Disney показала робота Сніжної королеви — «Ельзу», яка тренується у NVIDIA-симуляції. «Я найбільше чекаю на робота від Disney», — сказав Хуанг.
Хуанг і Сніжна королева махають на прощання з GTC | Джерело: NVIDIA
Цього року Хуанг на GTC запропонував не просто напрямки і гасла, а повний набір практичних інструментів для AI-стартапів.
Від чіпів для AI, систем OpenClaw, до фізичного AI, роботів і масштабної реалізації автопілотів — він дав відповіді на найскладніші питання, що стоять перед AI-індустрією. Кожна компанія і кожен розробник знайде тут своє місце.
З цього року AI перестане бути просто набором параметрів і обчислювальною потужністю — він стане частиною бізнесу і практики. Це не лише перемога однієї компанії, а початок справжнього запуску AI-економіки.