Google desarrolló un «simil Pied Piper» para acelerar las cálculos en redes neuronales en ocho veces - ForkLog: criptomonedas, IA, singularidad, futuro

robot
Generación de resúmenes en curso

Google 2025# Google desarrolló un «simulador de Pied Piper» para acelerar las cálculos en redes neuronales en ocho veces

La división de investigación de Google presentó TurboQuant, un algoritmo de compresión de memoria para inteligencia artificial. Los usuarios compararon esta innovación con la tecnología de la startup Pied Piper de la serie «Silicon Valley».

TurboQuant es el nuevo Pied Piper 🤣 pic.twitter.com/iMAYJs02zt

— Justin Trimble (@justintrimble) 25 de marzo de 2026

TurboQuant reduce significativamente los requisitos de recursos para trabajar con grandes modelos de lenguaje y sistemas de búsqueda vectorial.

La inteligencia artificial maneja matrices multidimensionales complejas que almacenan información sobre palabras o imágenes. Estos datos ocupan mucho espacio en la caché y ralentizan la generación de respuestas. Los métodos tradicionales de compresión requieren almacenar variables adicionales, lo que a menudo anula los beneficios de la optimización.

TurboQuant resuelve el problema del consumo excesivo de memoria mediante dos mecanismos. El primero convierte los vectores a coordenadas polares y comprime la mayor parte de los datos. El segundo funciona como un controlador matemático, usando solo un bit de memoria para eliminar errores residuales ocultos.

El director general de Cloudflare, Matthew Prince, comparó el algoritmo con los logros del modelo chino DeepSeek, que previamente demostró alta eficiencia con costos mínimos de hardware.

Esto es DeepSeek de Google. Aún hay mucho espacio para optimizar la inferencia de IA en velocidad, uso de memoria, consumo de energía y utilización multiinquilino. Muchos equipos en @Cloudflare están enfocados en estas áreas. #staytuned https://t.co/hHoY4sLT2I

— Matthew Prince 🌥 (@eastdakota) 25 de marzo de 2026

Los desarrolladores probaron la tecnología en modelos abiertos como Llama, Gemma y Mistral. El algoritmo comprimió la caché a solo tres bits sin pérdida de calidad en las respuestas. El consumo de memoria se redujo al menos seis veces, y la velocidad de cálculo en aceleradores gráficos H100 aumentó ocho veces.

La innovación no requiere entrenamiento adicional de las redes neuronales. Según la compañía, la tecnología se integrará en algoritmos de búsqueda y productos de IA propios, incluyendo Gemini. La presentación pública del proyecto tendrá lugar en las conferencias especializadas ICLR y AISTATS en 2026.

Recordemos que el 25 de marzo, Google reveló sus planes para adoptar criptografía post-cuántica.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado