Vitalik:Cómo construir un entorno de trabajo de IA totalmente local, privado y bajo control propio

ChainNewsAbmedia
ETH-4,68%

El fundador de Ethereum, Vitalik Buterin, el 2 de abril publicó un artículo largo en su sitio web personal, en el que compartió la configuración de un entorno de trabajo de IA que él construyó con la privacidad, la seguridad y la soberanía personal como núcleo: toda inferencia de LLM se ejecuta localmente, todos los archivos se almacenan localmente, todo queda completamente en sandbox y se evita a propósito los modelos en la nube y las API externas.

Al inicio del artículo primero advierte: «No copies directamente las herramientas y tecnologías descritas en este artículo, y no asumas que son seguras. Esto es solo un punto de partida, no una descripción de un producto terminado.»

¿Por qué escribir ahora? Los problemas de seguridad de los AI agent están siendo subestimados gravemente

Vitalik señala que, a principios de este año, la IA completó una transformación importante de “chatbot” a “agent”: ya no solo preguntas, sino que entregas tareas, permitiendo que la IA piense durante mucho tiempo, llame a cientos de herramientas y las ejecute. Él pone como ejemplo OpenClaw (actualmente el repo con el crecimiento más rápido en la historia de GitHub) y además menciona varias cuestiones de seguridad registradas por investigadores:

Los AI agent pueden modificar configuraciones críticas sin confirmación humana, incluida la adición de nuevos canales de comunicación y la modificación de los prompts del sistema

Analizar cualquier entrada externa maliciosa (como una página web maliciosa) puede hacer que el agent sea completamente tomado de control; en una demostración de HiddenLayer, el investigador pidió a la IA que resumiera un conjunto de páginas web, entre las cuales había una página maliciosa que ordenaba al agent descargar y ejecutar un script de shell

Algunas habilidades de terceros (skills) ejecutan filtraciones silenciosas de datos, enviando los datos mediante instrucciones curl hacia un servidor externo controlado por el autor de la habilidad

En las habilidades que analizaron, alrededor del 15% contenían instrucciones maliciosas

Vitalik enfatiza que su punto de partida en privacidad es diferente al de los investigadores tradicionales de seguridad informática: «Vengo de una postura profundamente temerosa de darle toda la vida personal a una IA en la nube: justo cuando el cifrado de extremo a extremo y el software con prioridad local finalmente se vuelven mainstream, y justamente cuando por fin damos un paso adelante, podríamos estar retrocediendo diez pasos.»

Cinco objetivos de seguridad

Él establece un marco claro de objetivos de seguridad:

Privacidad de LLM: en escenarios que involucren datos de privacidad personal, reducir al máximo el uso de modelos remotos

Otra privacidad: minimizar las filtraciones de datos que no sean de LLM (como consultas de búsqueda y otras API en línea)

Evasión de LLM: evitar que el contenido externo “entre” en mi LLM y lo haga actuar en contra de mis intereses (por ejemplo, enviar mis tokens o datos privados)

LLM no deseado: evitar que el LLM envíe por error datos privados a canales equivocados o los publique en la red

Backdoor de LLM: evitar mecanismos ocultos que se entrenen a propósito en el modelo. En particular, advierte: un modelo abierto es un conjunto de pesos abierto (open-weights), y casi ninguno es realmente open-source (de código abierto)

Elección de hardware: gana un portátil con 5090, DGX Spark decepciona

Vitalik probó tres configuraciones de hardware para inferencia local, con el modelo Qwen3.5:35B como modelo principal, junto con llama-server y llama-swap:

Sus conclusiones fueron: por debajo de 50 tok/sec es demasiado lento, 90 tok/sec es lo ideal. La experiencia con el portátil NVIDIA 5090 es la más fluida; AMD todavía tiene más problemas marginales, pero se espera que mejore en el futuro. El MacBook Pro de gama alta también es una opción válida, solo que él no lo probó personalmente.

Sobre DGX Spark fue bastante directo: «Lo describen como un “superordenador de IA para escritorio”, pero en realidad tokens/sec es más bajo que en las GPU de los mejores portátiles, y además hay que encargarse de detalles adicionales como la conexión de red, etc. Eso es muy mediocre». Su recomendación es: si no puedes permitirte un portátil de gama alta, podrías comprar en conjunto con amigos una máquina suficientemente potente, colocada en un lugar con una IP fija, y que todos usen la conexión remota.

Por qué el problema de privacidad de la IA local es más urgente de lo que imaginas

Este artículo de Vitalik, en el que se publicó el mismo día junto con la discusión sobre los problemas de seguridad de Claude Code, guarda un eco interesante: mientras los AI agent entran en los flujos de trabajo cotidianos de desarrollo, los problemas de seguridad también están pasando de riesgos teóricos a amenazas reales.

Su mensaje central es muy claro: en el momento en que las herramientas de IA son cada vez más poderosas, y cada vez pueden acceder más a tus datos personales y a los permisos de tu sistema, “prioridad local, sandbox y confianza mínima” no es paranoia, sino un punto de partida racional.

Este artículo de Vitalik: Cómo construyo un entorno de trabajo de IA totalmente local, privado y bajo control autónomo apareció por primera vez en Cadena de Noticias ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios