Штучний інтелект та технологія блокчейну представляють дві трансформаційні сили, що перетворюють наш світ. Штучний інтелект посилює когнітивні здібності людини за допомогою машинного навчання та нейронних мереж, тоді як технологія блокчейну вводить перевірену цифрову дефіцитність та дозволяє нові форми взаємодії бездовірчивої координації. Коли ці технології збігаються, вони закладають основу для нової ітерації Інтернету - там, де автономні агенти взаємодіють з децентралізованими системами. Ця "агентна веб-платформа" вводить новий клас цифрових громадян: Штучні інтелектуальні агенти, які можуть навігувати, переговорювати та проводити операції незалежно. Ця трансформація перерозподіляє владу в цифровому світі, дозволяючи особам повернути суверенітет над своїми даними, одночасно сприяючи екосистемі, де людський та штучний інтелект співпрацюють непревзойденними способами.
Щоб зрозуміти, куди ми рухаємося, спочатку простежимо еволюцію Вебу через його основні ітерації, кожна з яких відзначена відмінними можливостями та архітектурними парадигмами:
Поки перші дві покоління веб-сайтів фокусувалися на поширенні інформації, останні два дозволяють розширити інформацію. Веб 3.0 ввів власність даних через токени, а тепер Веб 4.0 надає розум за допомогою великих мовних моделей (LLM).
LLMs представляють собою квантовий стрибок в машинному інтелекті, функціонуючи як динамічні системи виявлення шаблонів, які перетворюють величезний обсяг знань в контекстне розуміння за допомогою ймовірнісного обчислення. Однак їх справжній потенціал проявляється, коли вони структуровані як агенти - перетворюючись з простих обробників інформації в цілеспрямовані сутності, які можуть сприймати, мислити і діяти. Ця трансформація створює виникаючий інтелект, здатний до продовженої, значущої співпраці як мовою, так і діями.
Термін "агент" вводить нову парадигму взаємодії людини з штучним інтелектом, виходячи за межі обмежень та негативних асоціацій традиційних чат-ботів. Цей зміни не просто семантичні; вони представляють собою фундаментальне переосмислення того, як системи штучного інтелекту можуть працювати автономно, зберігаючи значущу співпрацю з людьми. Фундаментально, агентні робочі процеси дозволяють формувати ринки навколо вирішення конкретних намірів користувачів.
Зрештою, Агентична Веб-це не лише новий шар інтелекту, вона фундаментально трансформує спосіб взаємодії з цифровими системами. Попередні версії вебу базувалися на статичних інтерфейсах та заздалегідь визначених шляхах користувача, Агентична Веб вводить динамічну інфраструктуру в режимі реального часу, де обчислення та інтерфейси адаптуються до контексту та наміру користувача у режимі реального часу.
Традиційні веб-сайти служать атомною одиницею сьогоднішнього Інтернету, забезпечуючи фіксовані інтерфейси, де користувачі читають, пишуть та взаємодіють з інформацією через передбачені шляхи. Ця модель, хоча й функціональна, обмежує користувачів інтерфейсами, призначеними для загальних випадків використання, а не індивідуальних потреб. Агентична веб-технологія визволяється від цих обмежень завдяки обчисленню з урахуванням контексту, генерації адаптивного інтерфейсу, передбачуваному потоку дій, розблокованому за допомогою RAG та інших інновацій у реальному часі вибору інформації.
Розглянемо, як TikTok здійснив революцію у споживанні контенту, створивши високоперсоналізовані стрічки, які адаптуються до вподобань користувачів у режимі реального часу. Agentic Web поширює цю концепцію за межі рекомендацій вмісту на всю генерацію інтерфейсу. Замість того, щоб переміщатися по фіксованих макетах веб-сторінок, користувачі взаємодіють з динамічно згенерованими інтерфейсами, які передбачають і полегшують їх наступні дії. Цей перехід від статичних веб-сайтів до динамічних інтерфейсів, керованих агентами, являє собою фундаментальну еволюцію в тому, як ми взаємодіємо з цифровими системами – перехід від навігаційних до моделей взаємодії, заснованих на намірах.
Агентні архітектури стали великим дослідженням для дослідників та будівельників. Нові методи постійно розробляються для покращення їх мислення та здатності вирішувати проблеми. Техніки, такі як Ланцюг-думки (CoT), Дерево-думки (ToT) та Граф-думки (GoT), - це приклади інновацій, призначених для покращення того, як LLMs впораються з складними завданнями, шляхом імітації більш тонких, людських когнітивних процесів.
Метод "ланцюжка думок" (CoT) спонукає великі мовні моделі (LLM) розбивати складні завдання на менші, керовані кроки. Цей підхід особливо ефективний для проблем, які вимагають логічного мислення, таких як написання коротких скриптів Python або вирішення математичних рівнянь.
Tree-of-Thoughts (ToT) розширює функціонал CoT, вводячи деревоподібну структуру, яка дозволяє досліджувати кілька незалежних шляхів мислення. Це покращення дозволяє LLM вирішувати ще більш складні завдання. У ToT кожна "думка" (текстовий результат від LLM) безпосередньо пов'язана лише зі своєю безпосередньо попередньою або наступною думкою в межах локального ланцюжка (гілки дерева). Хоча ця структура пропонує більше гнучкості, ніж CoT, вона все ж обмежує потенціал для перехресного запилення ідей.
Граф-думок (GoT) йде ще далі, поєднуючи класичні структури даних з LLMs. Цей підхід розширює ToT, дозволяючи будь-якій "думці" посилатися на будь-яку іншу думку всередині графової структури. Ця взаємопов'язана мережа думок більш точно відтворює когнітивні процеси людини.
Графічна структура GoT, ймовірно, надає більш точне відображення людського мислення порівняно з CoT або ToT у більшості сценаріїв. Хоча є ситуації, коли наші мислительні патерни можуть нагадувати ланцюжки або дерева (наприклад, при розробці планів невідкладних заходів чи стандартних процедур), це винятки, а не норма. Ця модель краще відображає людське мислення, яке часто перескакує через різні думки, а не дотримується жорсткого послідовного порядку. Хоча деякі сценарії, такі як розробка планів невідкладних заходів чи стандартних процедур, можуть все ще мати ланцюжкову або деревоподібну структуру, наші розуми зазвичай створюють складні, взаємопов'язані павутина ідей, які краще відповідають графічній структурі.
Такий графоподібний підхід в GoT дозволяє більш динамічне та гнучке дослідження ідей, що потенційно може призвести до більш творчих та комплексних можливостей у вирішенні проблем у LLMs.
Ці рекурсивні операції на основі графіків є лише кроком до агентичних робочих процесів. Очевидна наступна еволюція - це кілька агентів з власною спеціалізацією, які оркеструються для досягнення конкретних цілей. Краса агентів полягає в їх складності.
Агенти дозволяють вам модулювати та паралелізувати LLM через координацію багатоагентів.
Концепція багатоагентних систем не є новою. Її корені сягають до «Суспільства Розуму» Марвіна Мінські, яке запропонувало, що кілька модульних розумів, що працюють у співпраці, можуть перевершити один, монолітний розум. ChatGPT та Claude - це одиночні агенти. Mistral популяризував Суміш Експертів. Розширюючи цю ідею далі, ми вважаємо, що мережева архітектура агентів є кінцевим станом цієї топології інтелекту.
З точки зору біоміметики, на відміну від моделей штучного інтелекту, де мільярди однакових нейронів з'єднані однаковим, передбачуваним чином, людський мозок (в суті своєї сутності — це свідома машина) надзвичайно гетерогенний — як на рівні органів, так і на рівні клітин. Нейрони спілкуються складними сигналами, включаючи градієнти нейромедіаторів, внутрішньоклітинні каскади та різноманітні модуляційні системи, що робить їх функцію набагато більш відтіненою, ніж прості бінарні стани.
Це свідчить про те, що в біології інтелект не виникає лише від великої кількості компонентів або розміру навчального набору даних. Він виникає від складної взаємодії різноманітних, спеціалізованих одиниць - це властивий аналоговий процес.
З цієї причини, поняття розробки мільйонів менших моделей, а не лише декількох великих, та можливість оркестрування серед усіх цих акторів, більш імовірно призводить до інновацій у когнітивних архітектурах, щось на зразок багатоагентних систем.
Дизайн багатоагентних систем має кілька переваг перед одноагентними системами: він є більш підтримуваним, легшим для розуміння та більш гнучким для розширення. Навіть у випадках, коли потрібний лише одноагентний інтерфейс, реалізація його в межах багатоагентної платформи може зробити систему більш модульною, спрощуючи процес додавання або видалення компонентів розробникам, якщо це потрібно. Важливо розуміти, що багатоагентна архітектура може бути дуже ефективним способом побудувати навіть одноагентну систему.
Водночас великі мовні моделі (LLM) продемонстрували надзвичайні можливості, такі як генерування тексту, схожого на людський, вирішення складних проблем і виконання широкого спектру завдань, але окремі агенти LLM мають обмеження, які можуть обмежити їхню ефективність в реальних застосуваннях.
Нижче ми розглянемо п'ять ключових викликів, пов'язаних з агентичними системами, і дослідимо, як багатоагентна співпраця може подолати ці перешкоди, розблокувавши повний потенціал LLMs.
Хоча багатоагентні системи мають переконливі переваги в розподіленому вирішенні проблем і оптимізації ресурсів, їх справжній потенціал проявляється, коли ми розглядаємо їхню реалізацію на краю мережі. По мірі еволюції штучного інтелекту, злиття багатоагентних архітектур із розподіленим обчисленням створює потужний синергію - дозволяючи не лише співпрацюючий інтелект, а й локалізовану, ефективну обробку на безлічі пристроїв. Цей розподілений підхід до розгортання штучного інтелекту природно розширює переваги багатоагентних систем, наближаючи спеціалізований, кооперативний інтелект туди, де його найбільше потрібно: кінцевому користувачеві.
Поширення штучного інтелекту в цифровому просторі веде до фундаментальної перебудови обчислювальних архітектур. Оскільки інтелект стає вирібним у тканину наших щоденних цифрових взаємодій, ми спостерігаємо природне розгалуження обчислень: спеціалізовані центри обробляють складні міркування та завдання, специфічні для домену, тоді як краєві пристрої обробляють персоналізовані, контекстно-чутливі запити локально. Цей перехід до краєвого виведення не просто вибір архітектури - це необхідність, спонукана кількома критичними факторами.
Спочатку просто об'єм взаємодій, зумовлених штучним інтелектом, перевантажив би централізованих постачальників висновків, створюючи нестійкі вимоги до пропускної здатності та проблеми затримки.
Друге, обробка на межі дозволяє реальний час реагувати критичний для застосувань, таких як автономні транспортні засоби, розширена реальність та пристрої Інтернету речей.
Третє, місцевий висновок зберігає конфіденційність користувача, тримаючи чутливі дані на персональних пристроях. Четверте, країна обчислень драматично знижує споживання енергії та вуглецевий слід, мінімізуючи переміщення даних по мережах.
Нарешті, краєвий висновок забезпечує офлайн-функціональність та стійкість, забезпечуючи постійну працездатність мозку навіть тоді, коли підключення до мережі обмежене.
Ця розподілена парадигма інтелекту представляє собою не лише оптимізацію наших поточних систем, але й фундаментальне переосмислення того, як ми впроваджуємо та взаємодіємо з штучним інтелектом у нашому все більш підключеному світі.
Крім того, ми спостерігаємо фундаментальний зміщення у обчислювальних вимогах LLMs. У минулому десятилітті домінувала велика обчислювальна потреба для навчання великих мовних моделей, а тепер ми вступаємо в еру, де обчислення часу виведення займає центральне місце. Цей перехід особливо помітний у виникненні агентних систем штучного інтелекту, як це показано на прикладі прориву Q* від OpenAI, який продемонстрував, що динамічне мислення потребує значних ресурсів реального часу.
Незважаючи на обчислення часу навчання, яке є одноразовою інвестицією в розробку моделі, обчислення часу інференції представляє безперервний обчислювальний діалог, необхідний для автономних агентів для мислення, планування та адаптації до нових ситуацій. Цей зсув від статичного навчання моделі до динамічного мислення агентів потребує радикального переосмислення нашої обчислювальної інфраструктури - тут важливим не лише стає вигідний, але й обов’язковий краєвий розрахунок.
Під час цієї трансформації ми стаємо свідками появи ринків висновків на краю від піру-до-піру, де мільярди підключених пристроїв — від смартфонів до систем для розумного дому — утворюють динамічні обчислювальні сітки. Ці пристрої можуть безперешкодно торгувати можливістю висновків, створюючи органічний ринок, де обчислювальні ресурси струмують туди, де вони потрібні найбільше. Зайві обчислювальні можливості бездіяльних пристроїв стають цінним ресурсом, який можна торгувати в реальному часі, що дозволяє створити більш ефективну та стійку інфраструктуру, ніж у традиційних централізованих системах.
Ця демократизація обчислень виводу не лише оптимізує використання ресурсів, але й створює нові економічні можливості в цифровому екосистемі, де кожен підключений пристрій стає потенційним мікропостачальником можливостей штучного інтелекту. Таким чином, майбутнє штучного інтелекту буде характеризуватися не лише потужністю окремих моделей, але й колективним інтелектом взаємопов'язаних крайових пристроїв, які формують глобальний, демократизований ринок виводу, щось схоже на ринок для перевірних виводів на основі попиту та пропозиції.
LLM-моделі зараз дозволяють нам отримувати доступ до великої кількості інформації через розмову, замість традиційного перегляду. Цей розмовний підхід незабаром стане більш персоналізованим та локалізованим, оскільки Інтернет перетворюється на платформу для штучних інтелектуальних агентів, а не для людських користувачів.
З погляду користувача увага зміниться з пошуку «найкращої моделі» на отримання найбільш персоналізованих відповідей. Ключ до кращих відповідей полягає в поєднанні власних даних користувача разом із загальними знаннями Інтернету. Спочатку більші вікна контексту та ретрівально-розширена генерація (RAG) допоможуть інтегрувати особисті дані, але врешті-решт індивідуальні дані перевершать загальні дані Інтернету за важливістю.
Це призводить до майбутнього, коли у кожного з нас є особисті моделі штучного інтелекту, які взаємодіють зі спритними моделями Інтернету. Спочатку персоналізація відбуватиметься поряд з віддаленими моделями, але проблеми з конфіденційністю та швидкістю відповіді змусять переносити більше взаємодії на локальні пристрої. Це створить новий розділ - не між людиною та машиною, а між нашими особистими моделями та спритними моделями Інтернету.
Традиційна модель доступу до сировинних даних в Інтернеті застаріє. Замість цього ваша місцева модель буде спілкуватися з віддаленими експертними моделями, щоб збирати інформацію, яку вона буде обробляти й представляти вам у найбільш персоналізованому, високосмуговому способі. Ці особисті моделі стануть все більш невід'ємними, оскільки вони дізнаються більше про ваші уподобання й звички.
Інтернет перетвориться на екосистему взаємопов'язаних моделей: місцеві, висококонтекстні персональні моделі та віддалені, висококваліфіковані експертні моделі. Це потребуватиме нових технологій, таких як федеративне навчання, для оновлення інформації між цими моделями. По мірі еволюції машинної економіки нам доведеться уявити обчислювальний субстрат, на якому це відбувається, перш за все щодо обчислення, масштабованості та платежів. Це призводить до переорганізації інформаційного простору, який є агент-центричним, суверенним, високоякісним, самонавчаючимся та еволюційним.
У Агентній Веб-мережі взаємодія людини з агентами розвивається в складну мережу комунікацій агента-агента. Ця архітектура пропонує фундаментально переосмислену структуру Інтернету, де суверенні агенти стають основними інтерфейсами для цифрової взаємодії. Нижче ми виділяємо основні примітиви, необхідні для Агентних Протоколів.
Суверенна ідентичність
Автономні агенти
Самостійні сутності, здатні до: Розуміння природної мови та вирішення намірів
Багатоступінчасте планування та декомпозиція завдань
Управління та оптимізація ресурсів
Навчання від взаємодій та зворотньої відгуку
Інфраструктура даних
Гібридні системи, які поєднують: zkTLS
Традиційні навчальні набори даних
Веб-скрапінг у реальному часі та синтез даних
Мережі RLHF (навчання залученням з підтримки людини) Розподілений збір зворотнього зв'язку
Якісно-зважені механізми консенсусу
Обчислювальний шар
Перевірні протоколи виведення, що забезпечують: цілісність обчислень
Відтворюваність результатів
Ефективність використання ресурсів
Децентралізована інфраструктура обчислювальних мереж з можливістю пірингових ринків обчислень
Системи доведення обчислення
Динамічне розподіл ресурсів
Модель Екосистеми
Ієрархічна модельна архітектура: завдання-специфічні SLMs (Малі мовні моделі)
Універсальні LLMs
Спеціалізовані багатомодальні моделі
Координаційні фреймворки
Механізми управління для: вирішення спорів
Розподіл ресурсів
Середовища паралельного виконання, що дозволяють:Одночасна обробка завдань
Iзоляція ресурсів
Управління станом
Agentic Markets
Агентська власність над ліквідністюАгенти володіють часткою своєї початкової постачання токенів
Агенти стають доходними активами Agentic DAOs
Сучасний дизайн розподілених систем надає унікальну натхнення та примітиви для створення агентних протоколів, зокрема архітектур, орієнтованих на події, і більш прямо — моделі акторів обчислення.
Модель актора надає елегантну теоретичну основу для реалізації агентних систем. Ця обчислювальна модель розглядає "акторів" як універсальні примітиви обчислення, де кожен актор може:
Ключові переваги моделі актора для агентних систем включають:
Ми пропонуємо Neuron, практичну реалізацію цього теоретичного агентного протоколу через багатошарову розподілену архітектуру, яка поєднує пространства імен blockchain, федеративні мережі, CRDT та DHT, кожен шар виконує різні цілі в стеку протоколу. Ми беремо натхнення від Urbit та Holochain, піонерів у дизайні p2p ОС.
У Neuron рівень блокчейну забезпечує перевірні простори імен та ідентичність, що дозволяє детерміновану адресацію та виявлення агентів, зберігаючи криптографічні підтвердження здатностей та репутації. Над цим рівнем DHT-рівень сприяє ефективному виявленню агентів та вузлів поряд з маршрутизацією вмісту з часами пошуку O(log n), зменшуючи операції на ланцюжку, дозволяючи знаходження рівномірно за місцезнаходженням рівневого піра. Синхронізація стану між федеративними вузлами здійснюється за допомогою CRDT, що дозволяє агентам та вузлам підтримувати послідовні перегляди спільного стану без необхідності глобальної згоди для кожної взаємодії.
Ця архітектура природним чином відображає об'єднану мережу, де автономні агенти працюють як суверенні вузли, що живуть на пристроях з локальним граничним висновком, що реалізує шаблон Actor Model. Домени об'єднань можуть бути організовані за можливостями агента, при цьому DHT забезпечує ефективну маршрутизацію та виявлення всередині та між доменами. Кожен агент функціонує як незалежний суб'єкт зі своєю власною державою, тоді як рівень CRDT забезпечує остаточну узгодженість у всій федерації. Такий багаторівневий підхід забезпечує кілька ключових можливостей:
Децентралізована координація
Масштабовані операції
Стійкість системи
Цей підхід до впровадження забезпечує міцну основу для створення складних агентних систем, зберігаючи ключові властивості суверенітету, масштабованості та стійкості, необхідні для ефективної взаємодії агента-агента.
Агентична Веб-платформа є переломним етапом у взаємодії людини з комп'ютером, що перейшов за межі послідовних розвитків попередніх епох, щоб встановити фундаментально нову парадигму цифрового існування. На відміну від попередніх ітерацій, які просто змінювали спосіб нашого споживання або володіння інформацією, Агентичний Веб перетворює інтернет з платформи, орієнтованої на людину, в інтелектуальний субстрат, де автономні агенти стають основними акторами. Ця трансформація забезпечується злиттям розподіленого обчислення, великих мовних моделей та децентралізованих протоколів, створюючи екосистему, де персональні штучні інтелектуальні моделі безперешкодно взаємодіють з спеціалізованими експертними системами.
Поки ми рухаємося до цього агент-центричного майбутнього, межі між людським та машинним інтелектом починають змиватися, замінені симбіотичним відносинами, де персоналізовані штучні інтелектуальні агенти служать як наші цифрові розширення, розуміючи наш контекст, передбачаючи наші потреби та автономно навігуючи величезним ландшафтом розподіленого інтелекту. Отже, Агентична Веб-це не просто технологічний прорив, але фундаментальне переосмислення людського потенціалу в цифрову епоху, де кожна взаємодія стає можливістю для розширеного інтелекту та кожен пристрій стає вузлом в глобальній мережі спільних систем штучного інтелекту.
Точно так само як людство навігує фізичні просторові та часові виміри, автономні агенти населяють власні фундаментальні виміри: блок-простір для існування та час висновків для міркувань. Ця цифрова онтологія відображає нашу фізичну реальність — де люди подолують відстані та відчувають тимчасовий потік, агенти рухаються за криптографічними доказами та обчислювальними циклами, створюючи паралельний світ алгоритмічного існування.
Неуникнено, що сутності у латентному просторі будуть працювати на децентралізованому блокчейні.
Штучний інтелект та технологія блокчейну представляють дві трансформаційні сили, що перетворюють наш світ. Штучний інтелект посилює когнітивні здібності людини за допомогою машинного навчання та нейронних мереж, тоді як технологія блокчейну вводить перевірену цифрову дефіцитність та дозволяє нові форми взаємодії бездовірчивої координації. Коли ці технології збігаються, вони закладають основу для нової ітерації Інтернету - там, де автономні агенти взаємодіють з децентралізованими системами. Ця "агентна веб-платформа" вводить новий клас цифрових громадян: Штучні інтелектуальні агенти, які можуть навігувати, переговорювати та проводити операції незалежно. Ця трансформація перерозподіляє владу в цифровому світі, дозволяючи особам повернути суверенітет над своїми даними, одночасно сприяючи екосистемі, де людський та штучний інтелект співпрацюють непревзойденними способами.
Щоб зрозуміти, куди ми рухаємося, спочатку простежимо еволюцію Вебу через його основні ітерації, кожна з яких відзначена відмінними можливостями та архітектурними парадигмами:
Поки перші дві покоління веб-сайтів фокусувалися на поширенні інформації, останні два дозволяють розширити інформацію. Веб 3.0 ввів власність даних через токени, а тепер Веб 4.0 надає розум за допомогою великих мовних моделей (LLM).
LLMs представляють собою квантовий стрибок в машинному інтелекті, функціонуючи як динамічні системи виявлення шаблонів, які перетворюють величезний обсяг знань в контекстне розуміння за допомогою ймовірнісного обчислення. Однак їх справжній потенціал проявляється, коли вони структуровані як агенти - перетворюючись з простих обробників інформації в цілеспрямовані сутності, які можуть сприймати, мислити і діяти. Ця трансформація створює виникаючий інтелект, здатний до продовженої, значущої співпраці як мовою, так і діями.
Термін "агент" вводить нову парадигму взаємодії людини з штучним інтелектом, виходячи за межі обмежень та негативних асоціацій традиційних чат-ботів. Цей зміни не просто семантичні; вони представляють собою фундаментальне переосмислення того, як системи штучного інтелекту можуть працювати автономно, зберігаючи значущу співпрацю з людьми. Фундаментально, агентні робочі процеси дозволяють формувати ринки навколо вирішення конкретних намірів користувачів.
Зрештою, Агентична Веб-це не лише новий шар інтелекту, вона фундаментально трансформує спосіб взаємодії з цифровими системами. Попередні версії вебу базувалися на статичних інтерфейсах та заздалегідь визначених шляхах користувача, Агентична Веб вводить динамічну інфраструктуру в режимі реального часу, де обчислення та інтерфейси адаптуються до контексту та наміру користувача у режимі реального часу.
Традиційні веб-сайти служать атомною одиницею сьогоднішнього Інтернету, забезпечуючи фіксовані інтерфейси, де користувачі читають, пишуть та взаємодіють з інформацією через передбачені шляхи. Ця модель, хоча й функціональна, обмежує користувачів інтерфейсами, призначеними для загальних випадків використання, а не індивідуальних потреб. Агентична веб-технологія визволяється від цих обмежень завдяки обчисленню з урахуванням контексту, генерації адаптивного інтерфейсу, передбачуваному потоку дій, розблокованому за допомогою RAG та інших інновацій у реальному часі вибору інформації.
Розглянемо, як TikTok здійснив революцію у споживанні контенту, створивши високоперсоналізовані стрічки, які адаптуються до вподобань користувачів у режимі реального часу. Agentic Web поширює цю концепцію за межі рекомендацій вмісту на всю генерацію інтерфейсу. Замість того, щоб переміщатися по фіксованих макетах веб-сторінок, користувачі взаємодіють з динамічно згенерованими інтерфейсами, які передбачають і полегшують їх наступні дії. Цей перехід від статичних веб-сайтів до динамічних інтерфейсів, керованих агентами, являє собою фундаментальну еволюцію в тому, як ми взаємодіємо з цифровими системами – перехід від навігаційних до моделей взаємодії, заснованих на намірах.
Агентні архітектури стали великим дослідженням для дослідників та будівельників. Нові методи постійно розробляються для покращення їх мислення та здатності вирішувати проблеми. Техніки, такі як Ланцюг-думки (CoT), Дерево-думки (ToT) та Граф-думки (GoT), - це приклади інновацій, призначених для покращення того, як LLMs впораються з складними завданнями, шляхом імітації більш тонких, людських когнітивних процесів.
Метод "ланцюжка думок" (CoT) спонукає великі мовні моделі (LLM) розбивати складні завдання на менші, керовані кроки. Цей підхід особливо ефективний для проблем, які вимагають логічного мислення, таких як написання коротких скриптів Python або вирішення математичних рівнянь.
Tree-of-Thoughts (ToT) розширює функціонал CoT, вводячи деревоподібну структуру, яка дозволяє досліджувати кілька незалежних шляхів мислення. Це покращення дозволяє LLM вирішувати ще більш складні завдання. У ToT кожна "думка" (текстовий результат від LLM) безпосередньо пов'язана лише зі своєю безпосередньо попередньою або наступною думкою в межах локального ланцюжка (гілки дерева). Хоча ця структура пропонує більше гнучкості, ніж CoT, вона все ж обмежує потенціал для перехресного запилення ідей.
Граф-думок (GoT) йде ще далі, поєднуючи класичні структури даних з LLMs. Цей підхід розширює ToT, дозволяючи будь-якій "думці" посилатися на будь-яку іншу думку всередині графової структури. Ця взаємопов'язана мережа думок більш точно відтворює когнітивні процеси людини.
Графічна структура GoT, ймовірно, надає більш точне відображення людського мислення порівняно з CoT або ToT у більшості сценаріїв. Хоча є ситуації, коли наші мислительні патерни можуть нагадувати ланцюжки або дерева (наприклад, при розробці планів невідкладних заходів чи стандартних процедур), це винятки, а не норма. Ця модель краще відображає людське мислення, яке часто перескакує через різні думки, а не дотримується жорсткого послідовного порядку. Хоча деякі сценарії, такі як розробка планів невідкладних заходів чи стандартних процедур, можуть все ще мати ланцюжкову або деревоподібну структуру, наші розуми зазвичай створюють складні, взаємопов'язані павутина ідей, які краще відповідають графічній структурі.
Такий графоподібний підхід в GoT дозволяє більш динамічне та гнучке дослідження ідей, що потенційно може призвести до більш творчих та комплексних можливостей у вирішенні проблем у LLMs.
Ці рекурсивні операції на основі графіків є лише кроком до агентичних робочих процесів. Очевидна наступна еволюція - це кілька агентів з власною спеціалізацією, які оркеструються для досягнення конкретних цілей. Краса агентів полягає в їх складності.
Агенти дозволяють вам модулювати та паралелізувати LLM через координацію багатоагентів.
Концепція багатоагентних систем не є новою. Її корені сягають до «Суспільства Розуму» Марвіна Мінські, яке запропонувало, що кілька модульних розумів, що працюють у співпраці, можуть перевершити один, монолітний розум. ChatGPT та Claude - це одиночні агенти. Mistral популяризував Суміш Експертів. Розширюючи цю ідею далі, ми вважаємо, що мережева архітектура агентів є кінцевим станом цієї топології інтелекту.
З точки зору біоміметики, на відміну від моделей штучного інтелекту, де мільярди однакових нейронів з'єднані однаковим, передбачуваним чином, людський мозок (в суті своєї сутності — це свідома машина) надзвичайно гетерогенний — як на рівні органів, так і на рівні клітин. Нейрони спілкуються складними сигналами, включаючи градієнти нейромедіаторів, внутрішньоклітинні каскади та різноманітні модуляційні системи, що робить їх функцію набагато більш відтіненою, ніж прості бінарні стани.
Це свідчить про те, що в біології інтелект не виникає лише від великої кількості компонентів або розміру навчального набору даних. Він виникає від складної взаємодії різноманітних, спеціалізованих одиниць - це властивий аналоговий процес.
З цієї причини, поняття розробки мільйонів менших моделей, а не лише декількох великих, та можливість оркестрування серед усіх цих акторів, більш імовірно призводить до інновацій у когнітивних архітектурах, щось на зразок багатоагентних систем.
Дизайн багатоагентних систем має кілька переваг перед одноагентними системами: він є більш підтримуваним, легшим для розуміння та більш гнучким для розширення. Навіть у випадках, коли потрібний лише одноагентний інтерфейс, реалізація його в межах багатоагентної платформи може зробити систему більш модульною, спрощуючи процес додавання або видалення компонентів розробникам, якщо це потрібно. Важливо розуміти, що багатоагентна архітектура може бути дуже ефективним способом побудувати навіть одноагентну систему.
Водночас великі мовні моделі (LLM) продемонстрували надзвичайні можливості, такі як генерування тексту, схожого на людський, вирішення складних проблем і виконання широкого спектру завдань, але окремі агенти LLM мають обмеження, які можуть обмежити їхню ефективність в реальних застосуваннях.
Нижче ми розглянемо п'ять ключових викликів, пов'язаних з агентичними системами, і дослідимо, як багатоагентна співпраця може подолати ці перешкоди, розблокувавши повний потенціал LLMs.
Хоча багатоагентні системи мають переконливі переваги в розподіленому вирішенні проблем і оптимізації ресурсів, їх справжній потенціал проявляється, коли ми розглядаємо їхню реалізацію на краю мережі. По мірі еволюції штучного інтелекту, злиття багатоагентних архітектур із розподіленим обчисленням створює потужний синергію - дозволяючи не лише співпрацюючий інтелект, а й локалізовану, ефективну обробку на безлічі пристроїв. Цей розподілений підхід до розгортання штучного інтелекту природно розширює переваги багатоагентних систем, наближаючи спеціалізований, кооперативний інтелект туди, де його найбільше потрібно: кінцевому користувачеві.
Поширення штучного інтелекту в цифровому просторі веде до фундаментальної перебудови обчислювальних архітектур. Оскільки інтелект стає вирібним у тканину наших щоденних цифрових взаємодій, ми спостерігаємо природне розгалуження обчислень: спеціалізовані центри обробляють складні міркування та завдання, специфічні для домену, тоді як краєві пристрої обробляють персоналізовані, контекстно-чутливі запити локально. Цей перехід до краєвого виведення не просто вибір архітектури - це необхідність, спонукана кількома критичними факторами.
Спочатку просто об'єм взаємодій, зумовлених штучним інтелектом, перевантажив би централізованих постачальників висновків, створюючи нестійкі вимоги до пропускної здатності та проблеми затримки.
Друге, обробка на межі дозволяє реальний час реагувати критичний для застосувань, таких як автономні транспортні засоби, розширена реальність та пристрої Інтернету речей.
Третє, місцевий висновок зберігає конфіденційність користувача, тримаючи чутливі дані на персональних пристроях. Четверте, країна обчислень драматично знижує споживання енергії та вуглецевий слід, мінімізуючи переміщення даних по мережах.
Нарешті, краєвий висновок забезпечує офлайн-функціональність та стійкість, забезпечуючи постійну працездатність мозку навіть тоді, коли підключення до мережі обмежене.
Ця розподілена парадигма інтелекту представляє собою не лише оптимізацію наших поточних систем, але й фундаментальне переосмислення того, як ми впроваджуємо та взаємодіємо з штучним інтелектом у нашому все більш підключеному світі.
Крім того, ми спостерігаємо фундаментальний зміщення у обчислювальних вимогах LLMs. У минулому десятилітті домінувала велика обчислювальна потреба для навчання великих мовних моделей, а тепер ми вступаємо в еру, де обчислення часу виведення займає центральне місце. Цей перехід особливо помітний у виникненні агентних систем штучного інтелекту, як це показано на прикладі прориву Q* від OpenAI, який продемонстрував, що динамічне мислення потребує значних ресурсів реального часу.
Незважаючи на обчислення часу навчання, яке є одноразовою інвестицією в розробку моделі, обчислення часу інференції представляє безперервний обчислювальний діалог, необхідний для автономних агентів для мислення, планування та адаптації до нових ситуацій. Цей зсув від статичного навчання моделі до динамічного мислення агентів потребує радикального переосмислення нашої обчислювальної інфраструктури - тут важливим не лише стає вигідний, але й обов’язковий краєвий розрахунок.
Під час цієї трансформації ми стаємо свідками появи ринків висновків на краю від піру-до-піру, де мільярди підключених пристроїв — від смартфонів до систем для розумного дому — утворюють динамічні обчислювальні сітки. Ці пристрої можуть безперешкодно торгувати можливістю висновків, створюючи органічний ринок, де обчислювальні ресурси струмують туди, де вони потрібні найбільше. Зайві обчислювальні можливості бездіяльних пристроїв стають цінним ресурсом, який можна торгувати в реальному часі, що дозволяє створити більш ефективну та стійку інфраструктуру, ніж у традиційних централізованих системах.
Ця демократизація обчислень виводу не лише оптимізує використання ресурсів, але й створює нові економічні можливості в цифровому екосистемі, де кожен підключений пристрій стає потенційним мікропостачальником можливостей штучного інтелекту. Таким чином, майбутнє штучного інтелекту буде характеризуватися не лише потужністю окремих моделей, але й колективним інтелектом взаємопов'язаних крайових пристроїв, які формують глобальний, демократизований ринок виводу, щось схоже на ринок для перевірних виводів на основі попиту та пропозиції.
LLM-моделі зараз дозволяють нам отримувати доступ до великої кількості інформації через розмову, замість традиційного перегляду. Цей розмовний підхід незабаром стане більш персоналізованим та локалізованим, оскільки Інтернет перетворюється на платформу для штучних інтелектуальних агентів, а не для людських користувачів.
З погляду користувача увага зміниться з пошуку «найкращої моделі» на отримання найбільш персоналізованих відповідей. Ключ до кращих відповідей полягає в поєднанні власних даних користувача разом із загальними знаннями Інтернету. Спочатку більші вікна контексту та ретрівально-розширена генерація (RAG) допоможуть інтегрувати особисті дані, але врешті-решт індивідуальні дані перевершать загальні дані Інтернету за важливістю.
Це призводить до майбутнього, коли у кожного з нас є особисті моделі штучного інтелекту, які взаємодіють зі спритними моделями Інтернету. Спочатку персоналізація відбуватиметься поряд з віддаленими моделями, але проблеми з конфіденційністю та швидкістю відповіді змусять переносити більше взаємодії на локальні пристрої. Це створить новий розділ - не між людиною та машиною, а між нашими особистими моделями та спритними моделями Інтернету.
Традиційна модель доступу до сировинних даних в Інтернеті застаріє. Замість цього ваша місцева модель буде спілкуватися з віддаленими експертними моделями, щоб збирати інформацію, яку вона буде обробляти й представляти вам у найбільш персоналізованому, високосмуговому способі. Ці особисті моделі стануть все більш невід'ємними, оскільки вони дізнаються більше про ваші уподобання й звички.
Інтернет перетвориться на екосистему взаємопов'язаних моделей: місцеві, висококонтекстні персональні моделі та віддалені, висококваліфіковані експертні моделі. Це потребуватиме нових технологій, таких як федеративне навчання, для оновлення інформації між цими моделями. По мірі еволюції машинної економіки нам доведеться уявити обчислювальний субстрат, на якому це відбувається, перш за все щодо обчислення, масштабованості та платежів. Це призводить до переорганізації інформаційного простору, який є агент-центричним, суверенним, високоякісним, самонавчаючимся та еволюційним.
У Агентній Веб-мережі взаємодія людини з агентами розвивається в складну мережу комунікацій агента-агента. Ця архітектура пропонує фундаментально переосмислену структуру Інтернету, де суверенні агенти стають основними інтерфейсами для цифрової взаємодії. Нижче ми виділяємо основні примітиви, необхідні для Агентних Протоколів.
Суверенна ідентичність
Автономні агенти
Самостійні сутності, здатні до: Розуміння природної мови та вирішення намірів
Багатоступінчасте планування та декомпозиція завдань
Управління та оптимізація ресурсів
Навчання від взаємодій та зворотньої відгуку
Інфраструктура даних
Гібридні системи, які поєднують: zkTLS
Традиційні навчальні набори даних
Веб-скрапінг у реальному часі та синтез даних
Мережі RLHF (навчання залученням з підтримки людини) Розподілений збір зворотнього зв'язку
Якісно-зважені механізми консенсусу
Обчислювальний шар
Перевірні протоколи виведення, що забезпечують: цілісність обчислень
Відтворюваність результатів
Ефективність використання ресурсів
Децентралізована інфраструктура обчислювальних мереж з можливістю пірингових ринків обчислень
Системи доведення обчислення
Динамічне розподіл ресурсів
Модель Екосистеми
Ієрархічна модельна архітектура: завдання-специфічні SLMs (Малі мовні моделі)
Універсальні LLMs
Спеціалізовані багатомодальні моделі
Координаційні фреймворки
Механізми управління для: вирішення спорів
Розподіл ресурсів
Середовища паралельного виконання, що дозволяють:Одночасна обробка завдань
Iзоляція ресурсів
Управління станом
Agentic Markets
Агентська власність над ліквідністюАгенти володіють часткою своєї початкової постачання токенів
Агенти стають доходними активами Agentic DAOs
Сучасний дизайн розподілених систем надає унікальну натхнення та примітиви для створення агентних протоколів, зокрема архітектур, орієнтованих на події, і більш прямо — моделі акторів обчислення.
Модель актора надає елегантну теоретичну основу для реалізації агентних систем. Ця обчислювальна модель розглядає "акторів" як універсальні примітиви обчислення, де кожен актор може:
Ключові переваги моделі актора для агентних систем включають:
Ми пропонуємо Neuron, практичну реалізацію цього теоретичного агентного протоколу через багатошарову розподілену архітектуру, яка поєднує пространства імен blockchain, федеративні мережі, CRDT та DHT, кожен шар виконує різні цілі в стеку протоколу. Ми беремо натхнення від Urbit та Holochain, піонерів у дизайні p2p ОС.
У Neuron рівень блокчейну забезпечує перевірні простори імен та ідентичність, що дозволяє детерміновану адресацію та виявлення агентів, зберігаючи криптографічні підтвердження здатностей та репутації. Над цим рівнем DHT-рівень сприяє ефективному виявленню агентів та вузлів поряд з маршрутизацією вмісту з часами пошуку O(log n), зменшуючи операції на ланцюжку, дозволяючи знаходження рівномірно за місцезнаходженням рівневого піра. Синхронізація стану між федеративними вузлами здійснюється за допомогою CRDT, що дозволяє агентам та вузлам підтримувати послідовні перегляди спільного стану без необхідності глобальної згоди для кожної взаємодії.
Ця архітектура природним чином відображає об'єднану мережу, де автономні агенти працюють як суверенні вузли, що живуть на пристроях з локальним граничним висновком, що реалізує шаблон Actor Model. Домени об'єднань можуть бути організовані за можливостями агента, при цьому DHT забезпечує ефективну маршрутизацію та виявлення всередині та між доменами. Кожен агент функціонує як незалежний суб'єкт зі своєю власною державою, тоді як рівень CRDT забезпечує остаточну узгодженість у всій федерації. Такий багаторівневий підхід забезпечує кілька ключових можливостей:
Децентралізована координація
Масштабовані операції
Стійкість системи
Цей підхід до впровадження забезпечує міцну основу для створення складних агентних систем, зберігаючи ключові властивості суверенітету, масштабованості та стійкості, необхідні для ефективної взаємодії агента-агента.
Агентична Веб-платформа є переломним етапом у взаємодії людини з комп'ютером, що перейшов за межі послідовних розвитків попередніх епох, щоб встановити фундаментально нову парадигму цифрового існування. На відміну від попередніх ітерацій, які просто змінювали спосіб нашого споживання або володіння інформацією, Агентичний Веб перетворює інтернет з платформи, орієнтованої на людину, в інтелектуальний субстрат, де автономні агенти стають основними акторами. Ця трансформація забезпечується злиттям розподіленого обчислення, великих мовних моделей та децентралізованих протоколів, створюючи екосистему, де персональні штучні інтелектуальні моделі безперешкодно взаємодіють з спеціалізованими експертними системами.
Поки ми рухаємося до цього агент-центричного майбутнього, межі між людським та машинним інтелектом починають змиватися, замінені симбіотичним відносинами, де персоналізовані штучні інтелектуальні агенти служать як наші цифрові розширення, розуміючи наш контекст, передбачаючи наші потреби та автономно навігуючи величезним ландшафтом розподіленого інтелекту. Отже, Агентична Веб-це не просто технологічний прорив, але фундаментальне переосмислення людського потенціалу в цифрову епоху, де кожна взаємодія стає можливістю для розширеного інтелекту та кожен пристрій стає вузлом в глобальній мережі спільних систем штучного інтелекту.
Точно так само як людство навігує фізичні просторові та часові виміри, автономні агенти населяють власні фундаментальні виміри: блок-простір для існування та час висновків для міркувань. Ця цифрова онтологія відображає нашу фізичну реальність — де люди подолують відстані та відчувають тимчасовий потік, агенти рухаються за криптографічними доказами та обчислювальними циклами, створюючи паралельний світ алгоритмічного існування.
Неуникнено, що сутності у латентному просторі будуть працювати на децентралізованому блокчейні.