Google відкрито націлюється на надвеликі мережі дата-центрів «Vergo» для «агентського AI»... посилюючи здатність до зменшення затримок і реагування на збої

robot
Генерація анотацій у процесі

Google оголосила про надзвичайно великі мережі дата-центрів та міжхмарну інфраструктуру для епохи «інтелектуальних агентів AI (Agentic AI)». З поширенням середовищ, де штучний інтелект викликає зовнішні інструменти за мілісекунди, конкуренція за зменшення затримок і стабільну обробку масштабних обчислень активно розгортається.

24 числа Google представила свою нову систему мережевої інфраструктури AI — «Virgo Network». Ця система спрямована на підвищення швидкості загальної комунікації між внутрішніми кластерами прискорювачів, а також між пам’яттю, обчислювальними та сховищними ресурсами.

Головною ідеєю є «плоска» структура мережі. Цей підхід зменшує кількість рівнів, через які проходить передача даних, щоб знизити вузькі місця. За словами Google, Virgo Network може підключати до 134 000 чіпів, включаючи 8-го покоління TPU 8t для тренування моделей. Його двонапрямна пропускна здатність досягає 47 петабіт на секунду (Pbps). Компанія заявляє, що у порівнянні з попередніми поколіннями пропускна здатність кожного прискорювача зросла більш ніж у 4 рази.

Особливістю цієї презентації є не лише швидкість, а й акцент на «відновлюваності». У надмасштабних AI-кластерах збої, затримки та зниження швидкості окремих пристроїв майже неминучі. Google зазначає, що для вирішення цієї проблеми вони поєднали функцію «видимості» — детального моніторингу стану мережі — з автоматичним обходом і відновленням за допомогою програмного забезпечення. Також застосовано окрему комутаційну площину, щоб забезпечити стабільну пропускну здатність навіть при затримках або збої в мережі.

Google описує Virgo Network не як просте розширення існуючих дата-центрів, а як окремий продукт інфраструктури, створений за концепцією «зробити весь парк схожим на суперкомп’ютер». Компанія стверджує, що моніторинг стану системи з частотою менше 1 мілісекунди дозволяє оптимізувати питання миттєвих заторів і управління буферами як на апаратному, так і на програмному рівнях. Це особливо важливо у середовищах, де інтелектуальні агенти AI одночасно викликають інструменти, здійснюють логіку та пошук з підсиленням генерації (RAG).

Одночасно оголошено про зняття кордонів між хмарами через нові рівні з’єднання та безпеки

Крім мережі дата-центрів, Google представила рівень з’єднання та безпеки для робочих навантажень AI у хмарі. Компанія виділяє цю оновлення у чотири стовпи: «гнучкі обчислення», «безпечне міжхмарне з’єднання», «уніфікований рівень даних» і «цифровий суверенітет».

Перший — «гнучкі обчислення» — архітектура, спрямована на більш ефективне реагування на коливання потреб агентів AI. Оскільки запити до AI-сервісів часто різко зростають, Google пояснює, що вони підвищили доступність CPU, щоб швидше і економічніше реагувати на такі потреби. Зокрема, вони пропонують CPU, оптимізовані для логіки, оркестрації агентів і пошуку з підсиленням генерації, щоб доповнити можливості графічних процесорів (GPU).

Для цього Google застосувала CPU C4N і M4N на віртуальних машинах (VM), побудованих на Google Compute Engine і Google Kubernetes Service. Компанія заявляє, що ця система може обробляти до 95 мільйонів пакетів даних за секунду — у 40% швидше за основних конкурентів у галузі хмарних сервісів.

У сфері безпечного міжхмарного з’єднання ключовим елементом є «агентський шлюз». Цей контролер відповідає за моніторинг доступу агентів AI і керування протоколами, такими як модельний контекстний протокол (MCP) і протоколи між агентами (A2A). Вказується, що цей шлюз здатен забезпечити видимість і захист переданих даних у мультихмарних середовищах.

«AI йде до даних, а не навпаки»

Уніфікований рівень даних зосереджений на тому, щоб AI міг безпосередньо розуміти і використовувати дані, розподілені по різних сховищах підприємства. Google стверджує, що «розумне зберігання» додає метадані до об’єктів даних, перетворюючи традиційні «статичні дані» у знання, доступне для AI.

Якщо ця архітектура запроваджена, вона дозволяє застосовувати семантичний пошук до різних форматів інформації — таблиць, документів, PDF, зображень — і автоматично додавати коментарі та витягати інсайти. Це має зменшити феномен «островів» даних, коли вони застрягають у конкретних сховищах, і допомогти агентам AI швидше знаходити потрібну інформацію.

Разом із цим оприлюднено «каталог знань», який у графічній формі з’єднує внутрішні знання компанії, допомагаючи агентам AI краще розуміти бізнес-процеси і контексти. Google підкреслює, що такий підхід дозволяє оптимізувати навчання і реагування AI без необхідності переміщення даних у центральне сховище. Іншими словами, модель не переносить дані до центру, а дозволяє AI працювати у приватних середовищах даних.

Ця презентація свідчить, що фокус конкуренції у сфері AI швидко зміщується з моделі до мереж, безпеки та інфраструктури даних, що підтримують роботу моделей. Особливо з урахуванням того, що «інтелектуальні агенти AI» все більше впроваджуються у бізнес-процеси, низька затримка, висока відновлюваність і мультихмарне управління можуть стати ключовими конкурентними перевагами. Цей крок Google сприймається як сигнал посилення боротьби великих технологічних компаній за домінування у AI-інфраструктурі.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити