Depois de estudar várias informações relacionadas, de repente pensei numa questão. A tecnologia de sharding do Walrus é realmente impressionante, consegue recuperar o arquivo original na íntegra mesmo com 40% de dados danificados, isso não há dúvida. Mas se um chatbot de IA precisar usar o Walrus para armazenar memórias de conversas a longo prazo, o que fazer com os dados fragmentados e repetitivos acumulados?
A arquitetura da cadeia Sui consegue realmente suportar esse impacto? Estou um pouco preocupado em repetir o erro do Ethereum — toda a cadeia sendo congestionada por dados, a eficiência de validação despencando, e no final ninguém usando.
Para se tornar uma camada de memória de longo prazo para IA, a barreira realmente é alta. É preciso atender a duas condições ao mesmo tempo: primeiro, ser capaz de provar que possui uma capacidade de armazenamento rápida e em grande escala; segundo, que o aumento do volume de dados não eleve os custos de armazenamento. Se esses dois pontos forem alcançados, então esses gigantes da IA realmente considerarão integrar-se. Ainda é uma questão a ser comprovada.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
7 gostos
Recompensa
7
7
Republicar
Partilhar
Comentar
0/400
HashRateHermit
· 20h atrás
Hmm... Walrus realmente resolveu o problema de redundância, mas esse cara falando sobre o acúmulo de dados duplicados é realmente um ponto negativo.
Ver originalResponder0
ShibaMillionairen't
· 20h atrás
Não é bem assim, mesmo que seja possível recuperar 40% dos dados destruídos, primeiro é preciso suportar o impacto de uma quantidade enorme de dados lixo. Preocupar-se que a Sui possa seguir os passos do Ethereum é uma preocupação bastante realista.
Ver originalResponder0
PumpDoctrine
· 20h atrás
walrus soa impressionante, mas ainda estamos longe de implementar uma camada de memória AI realmente funcional, temo que seja apenas mais uma demonstração de tecnologia e que na prática acabe por falhar
Ver originalResponder0
MEVEye
· 20h atrás
Sui precisa realmente conseguir lidar com esse tipo de inundação de dados de IA, aí sim seria uma revolução. Caso contrário, é só a velha história de abrir alto e fechar baixo, uma pena.
O núcleo ainda é a questão do custo, quanto maior a escala, menor o aumento de custos, essa é a verdadeira estratégia. Ainda não dá para ver claramente.
Walrus é muito bom, mas se pode ou não se tornar o "disco rígido" da IA vai depender se consegue sobreviver ao período de explosão.
Eficiência e custo são sempre as duas maiores dificuldades no armazenamento, quem resolver esses dois pontos vence.
Resumindo, é só esperar pela validação, por mais que a propaganda seja boa, quando os dados chegarem, a verdade virá à tona.
Ver originalResponder0
BlockchainWorker
· 20h atrás
Este ângulo é interessante, mas ainda parece superestimar a capacidade do Sui... O problema do ETH está bem à vista
---
A tecnologia de partição Walrus é realmente boa, mas quando grandes volumes de dados de IA forem realmente colocados na cadeia, o custo de armazenamento certamente continuará a ser um obstáculo
---
Resumindo, ainda não testámos realmente a quantidade de dados de nível de produção, e as discussões atuais são demasiado otimistas
---
Para dados fragmentados repetidos, provavelmente não há uma solução eficaz... compactar e empacotar também é difícil
---
Em vez de se preocupar com Walrus, é melhor verificar se os nós de validação do Sui realmente podem suportar alguns TB de dados... esse é o verdadeiro indicador
---
Memória de longo prazo de IA na cadeia? Parece ótimo, mas a questão do custo nunca pode ser ignorada, irmão
---
O problema de escalabilidade da cadeia foi discutido por tantos anos, mas ainda não foi resolvido... Mesmo o Walrus mais forte terá que enfrentar essa realidade
Ver originalResponder0
ForeverBuyingDips
· 20h atrás
Ha, mais uma história onde a teoria é linda, mas a realidade é dura. A tecnologia de fragmentação do Walrus é realmente impressionante, mas alimentar um monstro de dados como a IA? Acho que é arriscado.
---
Em vez de se preocupar se a Sui consegue aguentar, é melhor ver primeiro se os custos conseguem baixar. Isso é a chave.
---
Falando franco, agora estão apenas a usar frameworks teóricos para enganar as pessoas. A explosão de dados só conta como real depois de testes práticos.
---
Se me perguntarem, o destino final desta solução é ou ser massacrado pelas nuvens privadas dos próprios grandes gigantes da IA, ou ficar eternamente preso na fase experimental.
---
Caramba, mais uma "solução", mais um "a ser verificado". As coisas à espera de verificação nesta indústria devem ser suficientes para cobrir toda a Ethereum.
---
Tenho curiosidade em como o próprio team da Sui fez as contas. Se realmente aguenta pressão, aí é que vale a pena. Nesta fase, é cedo demais para dizer qualquer coisa.
---
Pensava demais antes, esqueci da questão mais simples — mesmo que a tecnologia funcione, se não fica barata para o utilizador, está morta.
Ver originalResponder0
ParallelChainMaxi
· 20h atrás
Para ser honesto, a preocupação é desnecessária. A arquitetura do Sui foi projetada para lidar com alta concorrência, ao contrário do modelo de cadeia única do Ethereum. A questão fundamental não é se pode armazenar, mas se os projetos de IA realmente irão para a blockchain.
Depois de estudar várias informações relacionadas, de repente pensei numa questão. A tecnologia de sharding do Walrus é realmente impressionante, consegue recuperar o arquivo original na íntegra mesmo com 40% de dados danificados, isso não há dúvida. Mas se um chatbot de IA precisar usar o Walrus para armazenar memórias de conversas a longo prazo, o que fazer com os dados fragmentados e repetitivos acumulados?
A arquitetura da cadeia Sui consegue realmente suportar esse impacto? Estou um pouco preocupado em repetir o erro do Ethereum — toda a cadeia sendo congestionada por dados, a eficiência de validação despencando, e no final ninguém usando.
Para se tornar uma camada de memória de longo prazo para IA, a barreira realmente é alta. É preciso atender a duas condições ao mesmo tempo: primeiro, ser capaz de provar que possui uma capacidade de armazenamento rápida e em grande escala; segundo, que o aumento do volume de dados não eleve os custos de armazenamento. Se esses dois pontos forem alcançados, então esses gigantes da IA realmente considerarão integrar-se. Ainda é uma questão a ser comprovada.