Google, розгортання Gemini на місці… Чи можливо розв’язати суперечність між «контролем» та «продуктивністю» у корпоративній AI інфраструктурі

robot
Генерація анотацій у процесі

html

Преодолівши епоху генеративного штучного інтелекту, здатного самостійно виконувати завдання, настав час «агентського AI», який може діяти автономно, — вже настала. Стандарти проектування інфраструктури підприємств швидко змінюються. Особливо це стосується регуляторних галузей, урядових структур та компаній із суворими вимогами до суверенітету даних, які вимагають «готової до AI» інфраструктури, здатної запускати найновіші моделі AI у внутрішньому середовищі без передачі чутливих даних зовні.

Щоб задовольнити ці потреби, Google розширює свою стратегію інфраструктури, дозволяючи компаніям використовувати власні моделі AI та хмарні технології у локальному середовищі. Віце-президент і керівник відділу мереж та безпеки Google Muninder Sambi під час останньої конференції Google Cloud Next заявив: «Компанії завжди стикалися з вибором: або дотримуватися суверенітету та нормативів, або відмовитися від цих принципів і перейти до хмари. Децентралізована хмара Google саме і є рішенням, яке дозволяє інтегрувати Gemini та можливості AI Google у локальне середовище».

Gemini у партнерстві з NVIDIA, Dell, розширюється до внутрішніх мереж

Google співпрацює з NVIDIA ($NVDA) та Dell Technologies ($DELL), щоб підтримати запуск моделей на базі Gemini у ізольованих від публічних мереж «газових щілинах» та у підключених локальних середовищах. Зокрема, модель Gemini Flash вже підтримує локальне розгортання на GPU NVIDIA Blackwell B200 та B300. Це означає, що для підприємств можливо запускати «суверенний AI» навантаження без витоку даних.

Sambi підкреслив, що це не просто «AI-завод», а «AI-двигун», який дозволяє компаніям створювати власну виробничу систему AI. Для фінансових, медичних, оборонних та публічних секторів, які мають труднощі з використанням хмари, це безперечно є важливою революцією.

Kubernetes стає ядром операційної системи епохи AI

З розширенням локальної AI-інфраструктури роль Kubernetes стає все важливішою. Старший директор з продуктів Google Kubernetes та Google Compute Engine Drew Bradstock оцінив, що Kubernetes нині виконує роль «операційної системи» для AI-завдань, включаючи тренування, інференс та підсилювальне навчання.

Він пояснив, що на початкових етапах поширення великих мовних моделей ще не було ясно, чи зможе Kubernetes стати ядром управління AI, але з швидким розвитком відкритої екосистеми, орієнтованої на AI, він став базою для запуску агентів у гібридних хмарах. В умовах, коли компанії прагнуть розгортати AI у різних середовищах, стандартизація Kubernetes знову підкреслює свою цінність.

Зараз користувачі вже не обов’язково — це лише люди

Розповсюдження агентського AI не лише змінює спосіб роботи інфраструктури, а й трансформує філософію продуктового дизайну. Bradstock зазначив, що центр досвіду розробника вже не обов’язково має бути орієнтований лише на людину. Зі значним зростанням ролі AI-агентів у написанні коду та операційній діяльності, документи, інтерфейси та навіть інструменти починають переосмислюватися у вигляді структур, зручних для читання та використання AI-агентами.

Він додав: «Новий DevOps використовує Claude та Gemini для обробки завдань», і підкреслив, що навколо «навичок» вже переорієнтовуються користувацьке середовище, документи та інструменти. Це натякає, що майбутнє корпоративного програмного забезпечення може виходити за межі UI, розробленого для людей, і розвиватися у структури, які дозволяють AI-агентам безпосередньо викликати та виконувати функції.

Ключова мета: одночасно зберегти «контроль» і «ефективність»

Головна ідея цієї трансформації полягає в тому, що компанії вже не хочуть обирати між контролем над даними та AI-ефективністю. AI-готова інфраструктура вже не просто розширення серверів, а комплексний дизайн, що об’єднує суверенітет даних, GPU-обчислювальні ресурси, розгортання моделей, управління та оркестрацію.

З ринкової точки зору, стратегія Google демонструє, що хмарні компанії знову глибоко занурюються у локальні та гібридні хмари. З початком активного впровадження AI, ключовим фактором стане не лише продуктивність моделей, а й здатність безпечно та гнучко розгортати їх у реальних операційних середовищах.

TP AI зауваження Цей текст є зведенням, створеним мовною моделлю на базі TokenPost.ai. Можливо, у ньому пропущено основний зміст або він містить неточності.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити