Pourquoi la vérification de la disponibilité des données nécessite-t-elle un échantillonnage ? En clair, il est impossible de vérifier l'ensemble du jeu de données.
La clé ici réside dans la statistique. Concevoir une stratégie d'échantillonnage qui permet, avec le minimum de vérifications et la plus haute probabilité, de détecter les problèmes de perte de données, c'est ça le défi. Mais le problème est le suivant — plus le nombre de vérifications est élevé, plus la bande passante du réseau est sollicitée ; trop peu de vérifications, la sécurité n'est pas assurée.
Ce que craignent le plus les clients légers, c'est ce genre de contradiction. Ils ne peuvent pas vérifier l'intégralité des données, ils doivent donc s'appuyer sur des modèles mathématiques astucieux. La scientificité de l'échantillonnage détermine si tout le mécanisme de vérification peut fonctionner. En d'autres termes, si votre mathématique est suffisamment rigoureuse, le client léger pourra travailler en toute confiance ; si la rigueur mathématique fait défaut, la sécurité en pâtira.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
10
Reposter
Partager
Commentaire
0/400
HodlAndChill
· 01-14 13:14
Haha, c'est jouer avec le feu, si la stratégie d'échantillonnage est un peu plus souple, il faut en assumer la responsabilité.
Voir l'originalRépondre0
FUD_Whisperer
· 01-13 10:13
Encore ce vieux problème... L'échantillonnage est un art d'équilibre, si la mathématique devient un peu trop lâche, tout le système devient dangereux
Voir l'originalRépondre0
ProtocolRebel
· 01-11 17:52
C'est ça le jeu, la bande passante et la sécurité ne peuvent jamais surpasser, aussi sophistiquée que soit la conception de l'échantillonnage, c'est toujours une question de pari sur la probabilité.
Les mathématiques sont rigoureuses mais la réalité ne suit pas toujours les mathématiques, haha.
Un client léger, en fin de compte, n'est qu'un produit de compromis, on ne peut pas échapper à cette impasse.
Une stratégie d'échantillonnage brillante ne sert à rien, la capacité sur la chaîne est limitée, que peut-on y faire.
Donc, en fin de compte, il faut faire confiance à certains nœuds de validation, ce qui revient à centraliser...
Voir l'originalRépondre0
FlashLoanLarry
· 01-11 17:52
non c'est juste un compromis entre bande passante et sécurité déguisé en mathématiques sophistiquées... j'ai déjà vu ce film lol
Voir l'originalRépondre0
LiquidityWhisperer
· 01-11 17:52
Ce tirage, ce tirage, en fin de compte, c'est encore une question de pari sur la probabilité, et si cette "probabilité la plus élevée" n'est en réalité pas si haute, que faire ? Le client léger ne devient-il pas alors un filtre ?
Voir l'originalRépondre0
MEVHunter
· 01-11 17:46
L'échantillonnage n'est qu'un théâtre de sécurité si les mathématiques ne sont pas infaillibles... j'ai vu trop de stratégies "optimales" être exploitées dès que quelqu'un découvre les écarts de probabilité
Voir l'originalRépondre0
PaperHandsCriminal
· 01-11 17:45
Encore la même vieille histoire, l'échantillonnage consiste simplement à jouer avec la chance. Il faut choisir entre la bande passante et la sécurité, cette logique de conception est vraiment ironique.
Voir l'originalRépondre0
LiquidityHunter
· 01-11 17:39
Encore à 3h du matin à réfléchir à cela, pour être honnête, la conception de l'échantillonnage de DA influence directement l'efficacité du réseau... Le compromis entre bande passante et sécurité doit être précis jusqu'à trois décimales, sinon si un client léger plante, toute la profondeur de liquidité aura un trou.
Voir l'originalRépondre0
MetaverseHobo
· 01-11 17:29
La stratégie d'échantillonnage, en fin de compte, est un jeu de probabilités ; si le modèle mathématique est affaibli, la sécurité s'effondre. C'est le problème éternel des clients légers.
Pourquoi la vérification de la disponibilité des données nécessite-t-elle un échantillonnage ? En clair, il est impossible de vérifier l'ensemble du jeu de données.
La clé ici réside dans la statistique. Concevoir une stratégie d'échantillonnage qui permet, avec le minimum de vérifications et la plus haute probabilité, de détecter les problèmes de perte de données, c'est ça le défi. Mais le problème est le suivant — plus le nombre de vérifications est élevé, plus la bande passante du réseau est sollicitée ; trop peu de vérifications, la sécurité n'est pas assurée.
Ce que craignent le plus les clients légers, c'est ce genre de contradiction. Ils ne peuvent pas vérifier l'intégralité des données, ils doivent donc s'appuyer sur des modèles mathématiques astucieux. La scientificité de l'échantillonnage détermine si tout le mécanisme de vérification peut fonctionner. En d'autres termes, si votre mathématique est suffisamment rigoureuse, le client léger pourra travailler en toute confiance ; si la rigueur mathématique fait défaut, la sécurité en pâtira.