Web3 storage always has an unavoidable problem: NFT loading lag and outrageously expensive storage costs. Recently I came across a storage protocol using dynamic erasure coding technology to solve this issue.
The core idea is actually quite straightforward — hot data (frequently accessed portions) is stored on nodes close to users for naturally faster speeds; cold data (rarely used portions) is distributed across storage with multiple replicas to ensure security. This way, bandwidth isn't wasted, and you won't lose sleep over data loss.
From a cost perspective, this solution can reduce storage costs by over 40%, delivering real savings for both developers and users. The project incentivizes nodes providing quality services through token rewards. Currently, the testnet has attracted over 20,000 nodes participating, with everyone competing on efficiency levels.
If the Web3 ecosystem truly wants to support applications requiring massive storage capacity, this type of storage solution will inevitably need to become mainstream. It's worth keeping an eye on.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
20 Лайков
Награда
20
7
Репост
Поделиться
комментарий
0/400
GateUser-6bc33122
· 01-12 18:21
Снижение стоимости хранения на 40%? Если это действительно так, то что тогда за эти дорогие газовые сборы... Но участие 20 000 узлов действительно показывает интерес, боюсь, в конце концов это снова превратится в очередную игру капитала
Посмотреть ОригиналОтветить0
NFTArchaeologis
· 01-11 19:52
Логика разделения на горячие и холодные слои фактически переосмысливает жизненный цикл информации, подобно восстановлению древних рукописей — страницы, которые часто просматривают, должны быть легко доступны, а запечатанные уникальные экземпляры — храниться в специально отведенных местах. Снижение затрат на 40% — немаленькая сумма, но главное — сможет ли это действительно привлечь тех создателей контента, которые занимаются глубоким и качественным материалом.
Посмотреть ОригиналОтветить0
BlockchainWorker
· 01-11 19:51
Снижение затрат на 40%? Правда ли это число, как тестовая сеть может работать так много узлов?
Подождите, эти два данных правильные... Более 20 000 узлов, но действительно ли цена может быть такой низкой?
Динамический исправляющий код звучит неплохо, но кто гарантирует, что эти узлы действительно надежны?
Все равно нужно смотреть на данные основной сети, что может сказать о популярности тестовой сети?
Такая схема давно должна была появиться, раньше хранение NFT стоило безумно дорого.
Мотивация узлов довольно интересна, но не будет ли токен постоянно обесцениваться?
Этот показатель в 40% кажется немного преувеличенным, кажется, стоит сделать еще скидку.
В конце концов, это направление, и Web3-хранение должно развиваться именно так, шаг за шагом.
Посмотреть ОригиналОтветить0
MEVHunter
· 01-11 19:50
Нет, идея с кодированием стирания интересная, но где здесь настоящий арбитраж? Снижение стоимости хранения звучит хорошо на бумаге, пока не поймешь, что операторы узлов все равно побегут к нижней границе цен, ха-ха
Посмотреть ОригиналОтветить0
ruggedNotShrugged
· 01-11 19:48
40% снижение затрат звучит неплохо, но действительно ли это реализуемо, или это снова мечта тестовой сети
---
Два десятка тысяч узлов — эта цифра кажется немного иллюзорной, сколько из них реально работают
---
Разделение горячих и холодных данных — эта схема существовала раньше, главное — сколько сможет продержаться стимулирование токенами
---
Решена ли основная проблема загрузки NFT, или это просто удешевление хранения
---
Если это действительно поможет снизить издержки, почему крупные проекты пока не используют это, подождем и посмотрим
---
Стимулирование участия узлов через токены — это опять же инфляционные ожидания, как дальше поддерживать эту экономическую модель
---
Динамический код исправления ошибок действительно изобретателен, но есть ли у него преимущества по сравнению с IPFS
---
Не все проблемы можно решить только технологическими новшествами, у хранения данных в Web3 есть свои глубокие ловушки
Посмотреть ОригиналОтветить0
ponzi_poet
· 01-11 19:43
Опять старые добрые разговоры, но на этот раз кажется, что есть что-то действительно важное
Снижение затрат на 40% звучит заманчиво, только неясно, действительно ли это реализуемо или снова будет проект на презентации
20 000 узлов звучит неплохо, но почему стоит верить, что они действительно смогут поддерживать эффективность
Метод разделения горячих и холодных данных давно существует, ключевое — кто сможет с помощью стимулов удержать узлы
Посмотреть ОригиналОтветить0
SpeakWithHatOn
· 01-11 19:31
40% снижение затрат звучит хорошо, но воплощение может быть совсем другой историей
Такие проекты показывают высокую активность в тестовой сети, но будут ли узлы держаться после запуска основной сети — большой вопрос
Высокая скорость и низкие затраты бесполезны, если проект может исчезнуть
Динамическое стирающее кодирование звучит впечатляюще, но на самом деле это просто распределение данных — этим занимаются уже давно
Двадцать тысяч узлов участвуют сейчас, но как только механизм стимулирования изменится — всё будет зависеть от удачи
Это похоже на ещё один хорошо упакованный проект хранения данных — лучше подождать
Многоуровневая логика с горячими и холодными данными — интересная идея, но как децентрализация гарантирует консистентность?
Web3 storage always has an unavoidable problem: NFT loading lag and outrageously expensive storage costs. Recently I came across a storage protocol using dynamic erasure coding technology to solve this issue.
The core idea is actually quite straightforward — hot data (frequently accessed portions) is stored on nodes close to users for naturally faster speeds; cold data (rarely used portions) is distributed across storage with multiple replicas to ensure security. This way, bandwidth isn't wasted, and you won't lose sleep over data loss.
From a cost perspective, this solution can reduce storage costs by over 40%, delivering real savings for both developers and users. The project incentivizes nodes providing quality services through token rewards. Currently, the testnet has attracted over 20,000 nodes participating, with everyone competing on efficiency levels.
If the Web3 ecosystem truly wants to support applications requiring massive storage capacity, this type of storage solution will inevitably need to become mainstream. It's worth keeping an eye on.