El protocolo de almacenamiento Walrus en el ecosistema de Sui parece muy sofisticado, pero cuando realmente lo usas, surgen muchos problemas. Como profesional técnico que ha trabajado a largo plazo en almacenamiento distribuido, debo ser honesto: la documentación oficial solo habla de casos ideales, pero en el despliegue real aparecen todo tipo de problemas.
Empecemos con el esquema de códigos de borrado bidimensionales de RedStuff. Este sistema es realmente ingenioso en el papel: trata los datos como una matriz de símbolos de n×m, primero aplica codificación RaptorQ a las columnas para generar fragmentos principales, luego aplica codificación Reed-Solomon a las filas para generar fragmentos secundarios. Cada nodo almacena una combinación de pares de fragmentos principales y secundarios; con un tercio de los nodos se puede recuperar los datos completos. La redundancia se controla en 4 a 5 veces, una cifra que es realmente más eficiente que la replicación de 3 a 5 veces de cierto intercambio líder, y ahorra más espacio que la copia de seguridad de toda la red de cierta plataforma integral.
Pero esta eficiencia no es gratuita; el costo se multiplica varias veces en escenarios de alta carga.
Primero está el gasto computacional de codificación y decodificación. Aunque RaptorQ es el estándar de códigos de fuente reconocido por la industria, la complejidad de las operaciones matriciales no es baja. Especialmente al procesar archivos de nivel GB, en las pruebas reales, la carga de un archivo de modelo de IA de 5GB genera un proceso de codificación que consume más del 90% de los recursos de CPU del cliente, tardando más de 2 minutos. Si tu aplicación requiere cargas frecuentes, este gasto se convierte en un cuello de botella de rendimiento obvio. No solo el tiempo de codificación es largo, el consumo de recursos en la reconstrucción durante la decodificación es igualmente aterrador.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
5
Republicar
Compartir
Comentar
0/400
CountdownToBroke
· hace13h
Parece bien en papel, pero cuando lo usas realmente, sabes lo que significa estar haciendo malabares. Codificar 5GB en 2 minutos y saturar la CPU, ¿quién puede aguantar eso?
Ver originalesResponder0
RektButAlive
· hace13h
¿Archivo de 5GB en 2 minutos de codificación? Hermano, tengo que preguntarme honestamente, ¿esto realmente se puede usar?
Ver originalesResponder0
WalletWhisperer
· hace13h
walrus se ve bien sobre el papel hasta que realmente haces los cálculos, honestamente, ¿el 90% de uso de CPU para cargas de 5 GB? eso no es una característica, es un grito de ayuda
Ver originalesResponder0
GweiObserver
· hace13h
Otra vez cosas teóricas sin implementación, cuando se llevan a la práctica, fracasan.
Ver originalesResponder0
OnchainUndercover
· hace13h
No te dejes engañar por los artículos académicos, el código de corrección de errores de Walrus es un asesino de rendimiento en la práctica
¿Codificar un archivo de 5GB en 2 minutos? Vaya, eso ni siquiera es un plan de almacenamiento
RedStuff parece ingenioso, pero al usarlo el CPU se llena... Solo al correrlo se entiende qué significa hablar sin saber
Los documentos oficiales son engañosos, la realidad es que hay que hacer pruebas
¿Con un 90% de uso de CPU, todavía os atrevéis a usar esto? Qué locura
¿Eficiente? Ni en sueños, con cargas altas se explota directamente
El protocolo de almacenamiento Walrus en el ecosistema de Sui parece muy sofisticado, pero cuando realmente lo usas, surgen muchos problemas. Como profesional técnico que ha trabajado a largo plazo en almacenamiento distribuido, debo ser honesto: la documentación oficial solo habla de casos ideales, pero en el despliegue real aparecen todo tipo de problemas.
Empecemos con el esquema de códigos de borrado bidimensionales de RedStuff. Este sistema es realmente ingenioso en el papel: trata los datos como una matriz de símbolos de n×m, primero aplica codificación RaptorQ a las columnas para generar fragmentos principales, luego aplica codificación Reed-Solomon a las filas para generar fragmentos secundarios. Cada nodo almacena una combinación de pares de fragmentos principales y secundarios; con un tercio de los nodos se puede recuperar los datos completos. La redundancia se controla en 4 a 5 veces, una cifra que es realmente más eficiente que la replicación de 3 a 5 veces de cierto intercambio líder, y ahorra más espacio que la copia de seguridad de toda la red de cierta plataforma integral.
Pero esta eficiencia no es gratuita; el costo se multiplica varias veces en escenarios de alta carga.
Primero está el gasto computacional de codificación y decodificación. Aunque RaptorQ es el estándar de códigos de fuente reconocido por la industria, la complejidad de las operaciones matriciales no es baja. Especialmente al procesar archivos de nivel GB, en las pruebas reales, la carga de un archivo de modelo de IA de 5GB genera un proceso de codificación que consume más del 90% de los recursos de CPU del cliente, tardando más de 2 minutos. Si tu aplicación requiere cargas frecuentes, este gasto se convierte en un cuello de botella de rendimiento obvio. No solo el tiempo de codificación es largo, el consumo de recursos en la reconstrucción durante la decodificación es igualmente aterrador.