Beaucoup de gens évaluent la première étape des projets de stockage en les comparant : qui a les coûts les plus bas, la fiabilité la plus forte, le degré de décentralisation le plus complet. Walrus se compare à Arweave, Filecoin voire AWS, ce n’est pas faux, mais cela mène facilement à des détails insignifiants. Le vrai problème n’est pas « qui offre la meilleure redondance », mais — la conception architecturale même de la blockchain, qui ne peut tout simplement pas supporter des données massives, durables et transférables en tant que citoyens de première classe pour le stockage.
Quelle est la situation réelle des applications sur la chaîne ? La propriété et les enregistrements de transactions sont inscrits sur la chaîne, mais qu’en est-il des images, des fichiers audio, des paramètres de modèles, de l’état des cartes de jeu, des données collectées par capteurs ? La plupart ne sont pas l’objet principal sur la chaîne, mais simplement un lien pointant vers le backend.
Où est le piège ici ? Lorsque ce pointeur est relié à un centre de données d’un fournisseur de cloud ou d’un opérateur, la soi-disant décentralisation n’est plus qu’une coquille pour la « décentralisation du règlement ». Si cette partie modifie sa politique, met fin au service ou est bannie, les « actifs » enregistrés sur la chaîne deviennent une pile de papier usé — le grand livre est correct, mais les données ont disparu.
L’idée de Walrus est très claire : ne plus considérer le stockage comme une simple « réduction des coûts » ou une « compétition de performance », c’est une faille fondamentale de l’infrastructure de base. Pour qu’une blockchain puisse réellement soutenir des écosystèmes nécessitant une itération continue et la génération constante de nouvelles données (applications sociales à grande échelle, mondes de jeux en évolution continue, modèles d’IA et données d’entraînement, flux de données d’équipements physiques), il faut construire une couche de « système de mémoire à long terme » véritablement fiable — pas un stockage temporaire ou une ressource centrale susceptible d’être révoquée à tout moment.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
5
Reposter
Partager
Commentaire
0/400
TokenomicsPolice
· Il y a 5h
Putain, c'est ça la véritable problématique. J'ai toujours été trompé par les scores de performance avant.
Voir l'originalRépondre0
BearMarketNoodler
· 01-10 22:55
En résumé, actuellement, une multitude de blockchains fonctionnent à nu, avec toutes les données stockées sur des serveurs centralisés, la décentralisation n'est qu'une blague.
Les gens continuent de comparer le TPS et les frais de gas, mais personne ne réfléchit vraiment à la durabilité des données. Réveillez-vous, tout le monde.
C'est là que se trouve le vrai goulet d'étranglement, Walrus a pointé le problème crucial.
Voir l'originalRépondre0
MetaverseLandlady
· 01-10 22:55
Ah, c'est ça le bon plan, avant tout, on était aveuglés par les chiffres de performance
---
En réalité, les données sur la chaîne sont maintenant des coquilles vides, suivre une décision AWS et tout s'effondre
---
Donc, le problème fondamental que Walrus veut résoudre n'est pas une question de coûts, mais d'architecture
---
Une connexion perdue, l'actif devient inutilisable, je me disais aussi, quelque chose clochait
---
Le concept de système de mémoire à long terme a vraiment saisi l'essentiel, je dois l'admettre
---
Les mains noires des fournisseurs cloud sont trop nombreuses, il faut vraiment créer sa propre infrastructure de stockage
---
C'est ça la leçon que la blockchain publique doit apprendre, se contenter d'écrire un registre, à quoi ça sert
Voir l'originalRépondre0
GasBandit
· 01-10 22:54
En résumé, toutes les chaînes actuelles sont des tigres en papier, les données doivent toujours dépendre du père centralisé.
Voir l'originalRépondre0
TokenEconomist
· 01-10 22:49
en fait, cette question a touché un point que je voulais toujours souligner — nous optimisons des indicateurs erronés. Laissez-moi expliquer en détail, les coûts et la vitesse ne sont pas du tout des variables clés, le véritable goulot d'étranglement réside dans le mauvais alignement des incitations à la souveraineté des données.
Beaucoup de gens évaluent la première étape des projets de stockage en les comparant : qui a les coûts les plus bas, la fiabilité la plus forte, le degré de décentralisation le plus complet. Walrus se compare à Arweave, Filecoin voire AWS, ce n’est pas faux, mais cela mène facilement à des détails insignifiants. Le vrai problème n’est pas « qui offre la meilleure redondance », mais — la conception architecturale même de la blockchain, qui ne peut tout simplement pas supporter des données massives, durables et transférables en tant que citoyens de première classe pour le stockage.
Quelle est la situation réelle des applications sur la chaîne ? La propriété et les enregistrements de transactions sont inscrits sur la chaîne, mais qu’en est-il des images, des fichiers audio, des paramètres de modèles, de l’état des cartes de jeu, des données collectées par capteurs ? La plupart ne sont pas l’objet principal sur la chaîne, mais simplement un lien pointant vers le backend.
Où est le piège ici ? Lorsque ce pointeur est relié à un centre de données d’un fournisseur de cloud ou d’un opérateur, la soi-disant décentralisation n’est plus qu’une coquille pour la « décentralisation du règlement ». Si cette partie modifie sa politique, met fin au service ou est bannie, les « actifs » enregistrés sur la chaîne deviennent une pile de papier usé — le grand livre est correct, mais les données ont disparu.
L’idée de Walrus est très claire : ne plus considérer le stockage comme une simple « réduction des coûts » ou une « compétition de performance », c’est une faille fondamentale de l’infrastructure de base. Pour qu’une blockchain puisse réellement soutenir des écosystèmes nécessitant une itération continue et la génération constante de nouvelles données (applications sociales à grande échelle, mondes de jeux en évolution continue, modèles d’IA et données d’entraînement, flux de données d’équipements physiques), il faut construire une couche de « système de mémoire à long terme » véritablement fiable — pas un stockage temporaire ou une ressource centrale susceptible d’être révoquée à tout moment.