Web3ストレージには常に避けられない問題があります:NFTの読み込み遅延や高額なストレージコストです。最近、動的エラー訂正符号技術を用いたストレージプロトコルを目にしました。



その核心的なアイデアは実はそれほど複雑ではありません——ホットデータ(頻繁にアクセスされる部分)はユーザーに近いノードに保存し、速度を自然に向上させる;コールドデータ(あまり使われない部分)は分散して保存し、多重コピーで安全性を確保します。こうすれば、帯域幅の無駄遣いを避けつつ、データ喪失による不安も解消されます。

コストの観点から見ると、この方案はストレージコストを40%以上削減でき、開発者やユーザーにとって実質的なメリットとなります。プロジェクト側もトークンインセンティブを通じて高品質なサービスを提供するノードを奨励しており、現在のテストネットには2万以上のノードが参加しており、皆効率の競争をしています。

Web3エコシステムが本当に大量ストレージを必要とするアプリケーションを支えるなら、この種のストレージソリューションは早晩普及していく必要があります。注目に値します。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 7
  • リポスト
  • 共有
コメント
0/400
GateUser-6bc33122vip
· 18時間前
ストレージコストが40%削減?もし本当なら、以前の高額なガス代は一体何だったのか...ただ、2万のノードが参加していることから熱気は確かに感じられるが、最後にはまた別の資本ゲームにならないかと心配だ。
原文表示返信0
NFTArchaeologisvip
· 01-11 19:52
コールドとホットの層分けのロジックは、実は情報のライフサイクルを再解釈しているに過ぎません。古籍修復のように、頻繁に閲覧されるページはアクセスしやすい場所に置き、埃をかぶった孤本には専用の保管場所を設けるのです。40%のコスト削減は小さな数字ではありませんが、重要なのはこれが本当に深いコンテンツを作るクリエイターを引き込めるかどうかです。
原文表示返信0
BlockchainWorkervip
· 01-11 19:51
コスト40%削減?この数字は本当なのか、テストネットにそんなに多くのノードが稼働しているのはなぜだ? ちょっと待って、この二つのデータは正しいのか...2万以上のノードがあっても料金がこんなに安いわけがない? ダイナミック・エラー訂正コードは良さそうだけど、これらのノードが本当に信頼できるのか誰も保証しない。 やっぱりメインネットのデータを見て初めて信じられる、テストネットの盛り上がりだけでは何もわからない。 こういう方案は早く出てくるべきだった、以前NFTを保存するのに高すぎてびっくりした。 ノードのインセンティブは面白いけど、トークンはずっと価値が下がり続けるのか? 40%というこの割合はちょっと誇張しすぎじゃないか、もう少し割引が必要だと感じる。 少なくとも一つの方向性だ、Web3のストレージはこうやって一歩一歩進化していくしかない。
原文表示返信0
MEVHuntervip
· 01-11 19:50
いや、消去符号化の視点は面白いけど、ここでの本当のアービトラージの狙いはどこにあるのか?ストレージコストの削減は理論上良さそうだけど、結局ノード運営者たちが価格競争で底値を目指すだけだと気づくまではね lol
原文表示返信0
ruggedNotShruggedvip
· 01-11 19:48
40%コスト削減は良さそうに聞こえますが、本当に実現できるのでしょうか、それともまたテストネットの夢に過ぎないのでしょうか --- 2万のノードという数字は少し虚構に感じますが、実際に稼働しているのはどれくらいでしょうか --- 熱冷データの分離は以前からある手法ですが、肝心なのはトークンインセンティブがどれだけ持続できるかです --- NFTのロードカードの根本的な問題は解決しましたか、それとも単にストレージが安くなっただけですか --- これが本当にコストを削減できるなら、なぜ既存の大規模プロジェクトはまだ使っていないのでしょうか、様子を見てみましょう --- トークンインセンティブによるノード参加は、これもインフレ期待の一つですが、その後どうやってこの経済モデルを維持するのでしょうか --- ダイナミックエラー訂正コードは確かに巧妙ですが、IPFSと比べて何か優位性はありますか --- すべての問題が技術の積み重ねだけで解決できるわけではありません。Web3ストレージの落とし穴は深いです
原文表示返信0
ponzi_poetvip
· 01-11 19:43
またもや定番の話題だが、今回は本当に何かがあるようだ コストを40%削減するのは魅力的に聞こえるが、実際に動かしてみるとまたpptのプロジェクトになってしまうのかどうかはわからない 2万のノードは悪くないが、彼らが本当に効率を維持できると信じられる理由は何だろう ホット・コールドデータの分離という手法は以前からあったが、肝心なのは誰がインセンティブを使ってノードを維持できるかだ
原文表示返信0
SpeakWithHatOnvip
· 01-11 19:31
40%的コスト削減は良さそうに聞こえるが、実際に実現できるかはまた別の話だ この種のプロジェクトのテストネットは盛り上がるが、メインネットが稼働した後もノードが維持できるかはわからない 速度が速くてコストが低いだけでは意味がない、肝心なのは逃げ出さないかどうかだ ダイナミックエラー訂正コードは高尚に聞こえるが、実際はデータを分散保存するだけの話だ、これは以前から誰かがやっていることだ 2万ノードが参加しているが、インセンティブメカニズムが変われば運次第だ また、包装された良いストレージソリューションの一つに過ぎない気がする、また後で考えよう ホットデータとコールドデータの階層化ロジックは一つのアイデアだが、分散化していてどうやって一貫性を保つのか
原文表示返信0
  • ピン