En nuestra publicación anterior, exploramos el Historia del Diseño de AplicacionesEn la Parte 1 de nuestra segunda publicación de la serie Agentic AI, examinamos el panorama actual de la inteligencia artificial Web2 y sus tendencias, plataformas y tecnologías clave. En la Parte 2, exploramos cómo la cadena de bloques y la verificación sin confianza permiten la evolución de agentes de inteligencia artificial en sistemas verdaderamente agentes.
Figura 1. Paisaje de agentes de inteligencia artificial web2 E2B.
El panorama actual de la IA está predominantemente caracterizado por plataformas y servicios centralizados controlados por importantes empresas tecnológicas. Empresas como OpenAI, Anthropic, Google y Microsoft proporcionan modelos de lenguaje grandes (LLMs) y mantienen una infraestructura en la nube crucial y servicios de API que alimentan a la mayoría de los agentes de IA.
Los avances recientes en la infraestructura de IA han transformado fundamentalmente la forma en que los desarrolladores crean agentes de IA. En lugar de codificar interacciones específicas, los desarrolladores ahora pueden usar el lenguaje natural para definir comportamientos y objetivos del agente, lo que lleva a sistemas más adaptables y sofisticados.
Figura 2. Infraestructura de Segmentación del Agente de IA.
Avances clave en las siguientes áreas han llevado a una proliferación de agentes de IA:
figure_3_ai_business_models1920×1080 178 KB
Figura 3. Modelos de negocio de IA.
Las empresas tradicionales de inteligencia artificial Web2 emplean principalmente suscripciones escalonadas y servicios de consultoría como sus modelos de negocio.
Los modelos de negocio emergentes para los agentes de IA incluyen:
Aunque los sistemas actuales de IA Web2 han marcado el comienzo de una nueva era de tecnología y eficiencia, se enfrentan a varios retos.
Los principales obstáculos de Web2 AI, centralización, propiedad de datos y transparencia, se están abordando con blockchain y tokenización. Web3 ofrece las siguientes soluciones:
Tanto las pilas de agentes de IA Web2 como Web3 comparten componentes fundamentales como la coordinación de modelos y recursos, herramientas y otros servicios, y sistemas de memoria para la retención de contexto. Sin embargo, la incorporación de tecnologías blockchain en Web3 permite la descentralización de recursos informáticos, tokens para incentivar el intercambio de datos y la propiedad de los usuarios, la ejecución sin confianza a través de contratos inteligentes y redes de coordinación inicializadas.
figure_4_web3_ai_agent_stack1920×3627 407 KB
Figura 4. Pila de agentes de IA Web3.
La capa de datos es la base de la pila de agentes de inteligencia artificial Web3 y abarca todos los aspectos de los datos. Incluye fuentes de datos, seguimiento de procedencia y verificación de autenticidad, sistemas de etiquetado, herramientas de inteligencia de datos para análisis e investigación, y soluciones de almacenamiento para diferentes necesidades de retención de datos.
La capa de cálculo proporciona la infraestructura de procesamiento necesaria para ejecutar operaciones de IA. Los recursos informáticos se pueden dividir en categorías de distancia: infraestructura de entrenamiento para el desarrollo de modelos, sistemas de inferencia para la ejecución de modelos y operaciones de agente, y computación de borde para el procesamiento descentralizado local.
Los recursos informáticos distribuidos eliminan la dependencia de las redes centralizadas en la nube y mejoran la seguridad, reducen el problema del punto único de fallo y permiten a las empresas de IA más pequeñas aprovechar el exceso de recursos informáticos.
1. Entrenamiento. Entrenar modelos de IA es costoso e intensivo en computación. La computación descentralizada para el entrenamiento democratiza el desarrollo de IA al tiempo que aumenta la privacidad y la seguridad, ya que los datos sensibles pueden procesarse localmente sin control centralizado.
BittensoryRed de Golemson mercados descentralizados para recursos de entrenamiento de IA.Red Akash y Phalaproporcionar recursos informáticos descentralizados con TEEs.Red de renderizadoreutilizó su red gráfica de GPU para proporcionar computación para tareas de IA.
2. Inferencia. La informática de inferencia se refiere a los recursos necesarios por los modelos para generar una nueva salida o por las aplicaciones y agentes de IA para operar. Las aplicaciones en tiempo real que procesan grandes volúmenes de datos o agentes que requieren múltiples operaciones utilizan una mayor cantidad de potencia informática de inferencia.
Hiperbólico, Dfinity, y Hiperspacioofrece específicamente computación inferencial. Inference LabsʻsOmrones un mercado de inferencia y verificación informática en Bittensor. Las redes informáticas descentralizadas como Bittensor, Golem Network, Akash Network, Phala y Render Network ofrecen recursos informáticos tanto para el entrenamiento como para la inferencia.
3. Computación perimetral. La computación periférica implica el procesamiento de datos localmente en dispositivos remotos como teléfonos inteligentes, dispositivos IoT o servidores locales. La computación periférica permite el procesamiento de datos en tiempo real y reduce la latencia, ya que el modelo y los datos se ejecutan localmente en la misma máquina.
Red de Gradientees una red de computación en el borde en Solana. Red de Borde, Red de Theta, y AIOZpermitir el cómputo en el borde global.
La capa de verificación y privacidad garantiza la integridad del sistema y la protección de datos. Los mecanismos de consenso, las Pruebas de Conocimiento Cero (ZKPs) y TEE se utilizan para verificar el entrenamiento del modelo, la inferencia y los resultados. FHE y TEE se utilizan para garantizar la privacidad de los datos.
1. Cómputo Verificable. El cómputo verificable incluye el entrenamiento de modelos y la inferencia.
Phala and Red Atomacombina TEEs con cálculo verificable.Inferioutiliza una combinación de ZKPs y TEEs para inferencia verificable.
2. Pruebas de salida. Las pruebas de salida verifican que las salidas del modelo de IA sean genuinas y no hayan sido manipuladas sin revelar los parámetros del modelo. Las pruebas de salida también ofrecen procedencia y son importantes para confiar en las decisiones de los agentes de IA.
zkMLyRed Azteca ambos tienen sistemas ZKP que demuestran la integridad de la salida computacional. Ostra de Marlinproporciona inferencia de IA verificable a través de una red de TEEs.
3. Privacidad de Datos y Modelos. FHE y otras técnicas criptográficas permiten que los modelos procesen datos encriptados sin exponer información sensible. La privacidad de los datos es necesaria al manejar información personal y sensible y para preservar el anonimato.
Protocolo Oasisproporciona computación confidencial a través de TEEs y cifrado de datos.Cadena de bloques de Partisiautiliza la Computación Multi-Parte (MPC) avanzada para proporcionar privacidad de datos de IA.
La capa de coordinación facilita la interacción entre los diferentes componentes del ecosistema Web3 AI. Incluye mercados de modelos para distribución, infraestructura de entrenamiento y ajuste fino, y redes de agentes para comunicación y colaboración entre agentes.
1. Redes modelo. Las redes modelo están diseñadas para compartir recursos para el desarrollo de modelos de IA.
2. Entrenamiento / Ajuste fino. Las redes de entrenamiento se especializan en la distribución y gestión de conjuntos de datos de entrenamiento. Las redes de ajuste fino se centran en soluciones de infraestructura para mejorar el conocimiento externo del modelo a través de RAGs (Generación Aumentada de Recuperación) y APIs.
Bittensor, Akash Network y Golem Network ofrecen redes de entrenamiento y ajuste fino.
3. Redes de Agentes. Las Redes de Agentes proporcionan dos servicios principales para los agentes de IA: 1) herramientas y 2) plataformas de lanzamiento de agentes. Las herramientas incluyen conexiones con otros protocolos, interfaces de usuario estandarizadas y comunicación con servicios externos. Las plataformas de lanzamiento de agentes permiten una fácil implementación y gestión de agentes de IA.
Theoriqaprovecha enjambres de agentes para impulsar soluciones de trading DeFi. Virtuals es la plataforma líder de lanzamiento de agentes de IA en Base.Eliza OSfue la primera red de modelo LLM de código abierto. Red de Alpaca y Red de Olasson plataformas de agentes de IA de propiedad comunitaria.
La capa de servicios proporciona el middleware esencial y las herramientas que las aplicaciones de IA y los agentes necesitan para funcionar de manera efectiva. Esta capa incluye herramientas de desarrollo, APIs para la integración de datos y aplicaciones externas, sistemas de memoria para la retención del contexto del agente, Generación Aumentada por Recuperación (RAG) para un acceso mejorado al conocimiento e infraestructura de pruebas.
La capa de aplicación se encuentra en la parte superior de la pila de IA y representa las soluciones orientadas al usuario final. Esto incluye agentes que resuelven casos de uso como la gestión de carteras, la seguridad, la productividad, la ganancia, los mercados de predicción, los sistemas de gobernanza y las herramientas DeFAI.
En conjunto, estas aplicaciones contribuyen a crear ecosistemas de IA seguros, transparentes y descentralizados adaptados a las necesidades de la Web3.
La evolución de los sistemas de IA Web2 a Web3 representa un cambio fundamental en la forma en que abordamos el desarrollo y la implementación de la inteligencia artificial. Aunque la infraestructura de IA centralizada de Web2 ha impulsado una enorme innovación, se enfrenta a importantes retos en torno a la privacidad de los datos, la transparencia y el control centralizado. La pila de IA de Web3 demuestra cómo los sistemas descentralizados pueden abordar estas limitaciones a través de DAO de datos, redes informáticas descentralizadas y sistemas de verificación sin confianza. Quizás lo más importante es que los incentivos de tokens están creando nuevos mecanismos de coordinación que pueden ayudar a impulsar y mantener estas redes descentralizadas.
De cara al futuro, el auge de los agentes de IA representa la próxima frontera en esta evolución. Como exploraremos en el próximo artículo, los agentes de IA, desde simples bots de tareas específicas hasta complejos sistemas autónomos, se están volviendo cada vez más sofisticados y capaces. La integración de estos agentes con la infraestructura Web3, combinada con una cuidadosa consideración de la arquitectura técnica, los incentivos económicos y las estructuras de gobernanza, tiene el potencial de crear sistemas más equitativos, transparentes y eficientes de lo que era posible en la era Web2. Comprender cómo funcionan estos agentes, sus diferentes niveles de complejidad y la distinción entre los agentes de IA y la IA verdaderamente agentiva será crucial para cualquiera que trabaje en la intersección de la IA y la Web3.
En nuestra publicación anterior, exploramos el Historia del Diseño de AplicacionesEn la Parte 1 de nuestra segunda publicación de la serie Agentic AI, examinamos el panorama actual de la inteligencia artificial Web2 y sus tendencias, plataformas y tecnologías clave. En la Parte 2, exploramos cómo la cadena de bloques y la verificación sin confianza permiten la evolución de agentes de inteligencia artificial en sistemas verdaderamente agentes.
Figura 1. Paisaje de agentes de inteligencia artificial web2 E2B.
El panorama actual de la IA está predominantemente caracterizado por plataformas y servicios centralizados controlados por importantes empresas tecnológicas. Empresas como OpenAI, Anthropic, Google y Microsoft proporcionan modelos de lenguaje grandes (LLMs) y mantienen una infraestructura en la nube crucial y servicios de API que alimentan a la mayoría de los agentes de IA.
Los avances recientes en la infraestructura de IA han transformado fundamentalmente la forma en que los desarrolladores crean agentes de IA. En lugar de codificar interacciones específicas, los desarrolladores ahora pueden usar el lenguaje natural para definir comportamientos y objetivos del agente, lo que lleva a sistemas más adaptables y sofisticados.
Figura 2. Infraestructura de Segmentación del Agente de IA.
Avances clave en las siguientes áreas han llevado a una proliferación de agentes de IA:
figure_3_ai_business_models1920×1080 178 KB
Figura 3. Modelos de negocio de IA.
Las empresas tradicionales de inteligencia artificial Web2 emplean principalmente suscripciones escalonadas y servicios de consultoría como sus modelos de negocio.
Los modelos de negocio emergentes para los agentes de IA incluyen:
Aunque los sistemas actuales de IA Web2 han marcado el comienzo de una nueva era de tecnología y eficiencia, se enfrentan a varios retos.
Los principales obstáculos de Web2 AI, centralización, propiedad de datos y transparencia, se están abordando con blockchain y tokenización. Web3 ofrece las siguientes soluciones:
Tanto las pilas de agentes de IA Web2 como Web3 comparten componentes fundamentales como la coordinación de modelos y recursos, herramientas y otros servicios, y sistemas de memoria para la retención de contexto. Sin embargo, la incorporación de tecnologías blockchain en Web3 permite la descentralización de recursos informáticos, tokens para incentivar el intercambio de datos y la propiedad de los usuarios, la ejecución sin confianza a través de contratos inteligentes y redes de coordinación inicializadas.
figure_4_web3_ai_agent_stack1920×3627 407 KB
Figura 4. Pila de agentes de IA Web3.
La capa de datos es la base de la pila de agentes de inteligencia artificial Web3 y abarca todos los aspectos de los datos. Incluye fuentes de datos, seguimiento de procedencia y verificación de autenticidad, sistemas de etiquetado, herramientas de inteligencia de datos para análisis e investigación, y soluciones de almacenamiento para diferentes necesidades de retención de datos.
La capa de cálculo proporciona la infraestructura de procesamiento necesaria para ejecutar operaciones de IA. Los recursos informáticos se pueden dividir en categorías de distancia: infraestructura de entrenamiento para el desarrollo de modelos, sistemas de inferencia para la ejecución de modelos y operaciones de agente, y computación de borde para el procesamiento descentralizado local.
Los recursos informáticos distribuidos eliminan la dependencia de las redes centralizadas en la nube y mejoran la seguridad, reducen el problema del punto único de fallo y permiten a las empresas de IA más pequeñas aprovechar el exceso de recursos informáticos.
1. Entrenamiento. Entrenar modelos de IA es costoso e intensivo en computación. La computación descentralizada para el entrenamiento democratiza el desarrollo de IA al tiempo que aumenta la privacidad y la seguridad, ya que los datos sensibles pueden procesarse localmente sin control centralizado.
BittensoryRed de Golemson mercados descentralizados para recursos de entrenamiento de IA.Red Akash y Phalaproporcionar recursos informáticos descentralizados con TEEs.Red de renderizadoreutilizó su red gráfica de GPU para proporcionar computación para tareas de IA.
2. Inferencia. La informática de inferencia se refiere a los recursos necesarios por los modelos para generar una nueva salida o por las aplicaciones y agentes de IA para operar. Las aplicaciones en tiempo real que procesan grandes volúmenes de datos o agentes que requieren múltiples operaciones utilizan una mayor cantidad de potencia informática de inferencia.
Hiperbólico, Dfinity, y Hiperspacioofrece específicamente computación inferencial. Inference LabsʻsOmrones un mercado de inferencia y verificación informática en Bittensor. Las redes informáticas descentralizadas como Bittensor, Golem Network, Akash Network, Phala y Render Network ofrecen recursos informáticos tanto para el entrenamiento como para la inferencia.
3. Computación perimetral. La computación periférica implica el procesamiento de datos localmente en dispositivos remotos como teléfonos inteligentes, dispositivos IoT o servidores locales. La computación periférica permite el procesamiento de datos en tiempo real y reduce la latencia, ya que el modelo y los datos se ejecutan localmente en la misma máquina.
Red de Gradientees una red de computación en el borde en Solana. Red de Borde, Red de Theta, y AIOZpermitir el cómputo en el borde global.
La capa de verificación y privacidad garantiza la integridad del sistema y la protección de datos. Los mecanismos de consenso, las Pruebas de Conocimiento Cero (ZKPs) y TEE se utilizan para verificar el entrenamiento del modelo, la inferencia y los resultados. FHE y TEE se utilizan para garantizar la privacidad de los datos.
1. Cómputo Verificable. El cómputo verificable incluye el entrenamiento de modelos y la inferencia.
Phala and Red Atomacombina TEEs con cálculo verificable.Inferioutiliza una combinación de ZKPs y TEEs para inferencia verificable.
2. Pruebas de salida. Las pruebas de salida verifican que las salidas del modelo de IA sean genuinas y no hayan sido manipuladas sin revelar los parámetros del modelo. Las pruebas de salida también ofrecen procedencia y son importantes para confiar en las decisiones de los agentes de IA.
zkMLyRed Azteca ambos tienen sistemas ZKP que demuestran la integridad de la salida computacional. Ostra de Marlinproporciona inferencia de IA verificable a través de una red de TEEs.
3. Privacidad de Datos y Modelos. FHE y otras técnicas criptográficas permiten que los modelos procesen datos encriptados sin exponer información sensible. La privacidad de los datos es necesaria al manejar información personal y sensible y para preservar el anonimato.
Protocolo Oasisproporciona computación confidencial a través de TEEs y cifrado de datos.Cadena de bloques de Partisiautiliza la Computación Multi-Parte (MPC) avanzada para proporcionar privacidad de datos de IA.
La capa de coordinación facilita la interacción entre los diferentes componentes del ecosistema Web3 AI. Incluye mercados de modelos para distribución, infraestructura de entrenamiento y ajuste fino, y redes de agentes para comunicación y colaboración entre agentes.
1. Redes modelo. Las redes modelo están diseñadas para compartir recursos para el desarrollo de modelos de IA.
2. Entrenamiento / Ajuste fino. Las redes de entrenamiento se especializan en la distribución y gestión de conjuntos de datos de entrenamiento. Las redes de ajuste fino se centran en soluciones de infraestructura para mejorar el conocimiento externo del modelo a través de RAGs (Generación Aumentada de Recuperación) y APIs.
Bittensor, Akash Network y Golem Network ofrecen redes de entrenamiento y ajuste fino.
3. Redes de Agentes. Las Redes de Agentes proporcionan dos servicios principales para los agentes de IA: 1) herramientas y 2) plataformas de lanzamiento de agentes. Las herramientas incluyen conexiones con otros protocolos, interfaces de usuario estandarizadas y comunicación con servicios externos. Las plataformas de lanzamiento de agentes permiten una fácil implementación y gestión de agentes de IA.
Theoriqaprovecha enjambres de agentes para impulsar soluciones de trading DeFi. Virtuals es la plataforma líder de lanzamiento de agentes de IA en Base.Eliza OSfue la primera red de modelo LLM de código abierto. Red de Alpaca y Red de Olasson plataformas de agentes de IA de propiedad comunitaria.
La capa de servicios proporciona el middleware esencial y las herramientas que las aplicaciones de IA y los agentes necesitan para funcionar de manera efectiva. Esta capa incluye herramientas de desarrollo, APIs para la integración de datos y aplicaciones externas, sistemas de memoria para la retención del contexto del agente, Generación Aumentada por Recuperación (RAG) para un acceso mejorado al conocimiento e infraestructura de pruebas.
La capa de aplicación se encuentra en la parte superior de la pila de IA y representa las soluciones orientadas al usuario final. Esto incluye agentes que resuelven casos de uso como la gestión de carteras, la seguridad, la productividad, la ganancia, los mercados de predicción, los sistemas de gobernanza y las herramientas DeFAI.
En conjunto, estas aplicaciones contribuyen a crear ecosistemas de IA seguros, transparentes y descentralizados adaptados a las necesidades de la Web3.
La evolución de los sistemas de IA Web2 a Web3 representa un cambio fundamental en la forma en que abordamos el desarrollo y la implementación de la inteligencia artificial. Aunque la infraestructura de IA centralizada de Web2 ha impulsado una enorme innovación, se enfrenta a importantes retos en torno a la privacidad de los datos, la transparencia y el control centralizado. La pila de IA de Web3 demuestra cómo los sistemas descentralizados pueden abordar estas limitaciones a través de DAO de datos, redes informáticas descentralizadas y sistemas de verificación sin confianza. Quizás lo más importante es que los incentivos de tokens están creando nuevos mecanismos de coordinación que pueden ayudar a impulsar y mantener estas redes descentralizadas.
De cara al futuro, el auge de los agentes de IA representa la próxima frontera en esta evolución. Como exploraremos en el próximo artículo, los agentes de IA, desde simples bots de tareas específicas hasta complejos sistemas autónomos, se están volviendo cada vez más sofisticados y capaces. La integración de estos agentes con la infraestructura Web3, combinada con una cuidadosa consideración de la arquitectura técnica, los incentivos económicos y las estructuras de gobernanza, tiene el potencial de crear sistemas más equitativos, transparentes y eficientes de lo que era posible en la era Web2. Comprender cómo funcionan estos agentes, sus diferentes niveles de complejidad y la distinción entre los agentes de IA y la IA verdaderamente agentiva será crucial para cualquiera que trabaje en la intersección de la IA y la Web3.