O protocolo de armazenamento Walrus no ecossistema Sui parece muito sofisticado, mas quando se trata de usá-lo na prática, há muitos problemas. Como técnico que trabalha há muito tempo com armazenamento distribuído, preciso ser honesto — a documentação oficial apenas descreve cenários ideais, mas durante a implementação real surgem vários problemas.
Começando pelo esquema de código de apagamento bidimensional do RedStuff. Este sistema é realmente engenhoso no papel: trata os dados como uma matriz de símbolos n×m, primeiro faz codificação RaptorQ nas colunas para gerar fragmentos principais, depois codificação Reed-Solomon nas linhas para gerar fragmentos secundários. Cada nó armazena um par de combinações de fragmentos principais e secundários, e apenas um terço dos nós é necessário para recuperar os dados completos. A redundância é controlada em 4 a 5 vezes, um número que é de facto mais eficiente que a replicação de 3 a 5 vezes de algumas exchanges líderes, e poupa mais espaço que o backup em toda a rede de algumas plataformas all-in-one.
Mas essa eficiência não é gratuita — o custo é amplificado várias vezes em cenários de alta carga.
Em primeiro lugar está o overhead computacional da codificação e descodificação. Embora o RaptorQ seja o padrão de código fonte reconhecido pela indústria, a complexidade das operações matriciais não é baixa. Especialmente ao lidar com ficheiros em escala GB, nos testes práticos ao enviar um ficheiro de modelo de IA de 5GB, o processo de codificação consome mais de 90% dos recursos de CPU do cliente, demorando mais de 2 minutos. Se a sua aplicação exigir uploads frequentes, este overhead torna-se um gargalo de desempenho óbvio. Além do tempo de codificação longo, o consumo de recursos durante a reconstrução de descodificação é igualmente assustador.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
18 gostos
Recompensa
18
8
Republicar
Partilhar
Comentar
0/400
HashBandit
· 43m atrás
NGL, walrus soa bem na teoria, mas aquela sobrecarga de CPU é literalmente uma vibe de voltar ao início... 2 minutos para codificar 5GB? Os meus antigos rigs de mineração tinham uma taxa de transferência melhor, lmao. É exatamente por isso que as pessoas preferem armazenamento centralizado, as taxas de gás importam, mas também não queimar o portátil.
Ver originalResponder0
TokenomicsTinfoilHat
· 4h atrás
5GB ficheiro a consumir CPU em 2 minutos, quem é que aguenta isto?
Ver originalResponder0
LiquidatedAgain
· 01-13 13:26
As soluções brilhantes nos artigos, assim que entram na mainnet, revelam-se na sua verdadeira forma, já vi este padrão muitas vezes. A codificação de luz de 5GB leva 2 minutos, com 90% de uso da CPU... Para ser honesto, é a mesma sensação que tive ao apostar tudo numa estratégia de alto rendimento — teoricamente perfeita, mas na prática, leva a uma liquidação direta. Vocês não calcularam bem o preço de liquidação, pessoal.
Ver originalResponder0
CountdownToBroke
· 01-11 14:53
Parece bem na teoria, mas na prática é que se vê o que é realmente complicado. 5GB de codificação em 2 minutos consome toda a CPU, quem aguenta isso?
Ver originalResponder0
RektButAlive
· 01-11 14:52
Codificar um arquivo de 5GB em 2 minutos? Cara, tenho que me perguntar sinceramente, isso realmente funciona?
Ver originalResponder0
WalletWhisperer
· 01-11 14:50
walrus parece bem na teoria até realmente fazer as contas, honestamente, 90% de uso de CPU para uploads de 5GB? isso não é uma funcionalidade, é um pedido de ajuda
Ver originalResponder0
GweiObserver
· 01-11 14:42
Mais uma teoria vazia, que falha na prática
Ver originalResponder0
OnchainUndercover
· 01-11 14:32
Não se deixe enganar pelos artigos acadêmicos, o código de eliminação com correção de erros do Walrus é simplesmente um destruidor de desempenho na prática
5GB de ficheiros codificados em 2 minutos? Meu Deus, isto é uma solução de armazenamento?
RedStuff parece engenhoso, mas na prática consome toda a CPU...só quando o executam é que percebem o que é teoria desligada da realidade
A documentação oficial é toda enganadora, a realidade é puro sofrimento
90% de ocupação de CPU, vocês realmente usam isto? É simplesmente absurdo
Eficiência coisa nenhuma, performance alta é simplesmente um colapso iminente
O protocolo de armazenamento Walrus no ecossistema Sui parece muito sofisticado, mas quando se trata de usá-lo na prática, há muitos problemas. Como técnico que trabalha há muito tempo com armazenamento distribuído, preciso ser honesto — a documentação oficial apenas descreve cenários ideais, mas durante a implementação real surgem vários problemas.
Começando pelo esquema de código de apagamento bidimensional do RedStuff. Este sistema é realmente engenhoso no papel: trata os dados como uma matriz de símbolos n×m, primeiro faz codificação RaptorQ nas colunas para gerar fragmentos principais, depois codificação Reed-Solomon nas linhas para gerar fragmentos secundários. Cada nó armazena um par de combinações de fragmentos principais e secundários, e apenas um terço dos nós é necessário para recuperar os dados completos. A redundância é controlada em 4 a 5 vezes, um número que é de facto mais eficiente que a replicação de 3 a 5 vezes de algumas exchanges líderes, e poupa mais espaço que o backup em toda a rede de algumas plataformas all-in-one.
Mas essa eficiência não é gratuita — o custo é amplificado várias vezes em cenários de alta carga.
Em primeiro lugar está o overhead computacional da codificação e descodificação. Embora o RaptorQ seja o padrão de código fonte reconhecido pela indústria, a complexidade das operações matriciais não é baixa. Especialmente ao lidar com ficheiros em escala GB, nos testes práticos ao enviar um ficheiro de modelo de IA de 5GB, o processo de codificação consome mais de 90% dos recursos de CPU do cliente, demorando mais de 2 minutos. Se a sua aplicação exigir uploads frequentes, este overhead torna-se um gargalo de desempenho óbvio. Além do tempo de codificação longo, o consumo de recursos durante a reconstrução de descodificação é igualmente assustador.