Por que é que a validação de disponibilidade de dados necessita de amostragem? Simplificando, é impossível verificar todo o conjunto de dados de uma só vez.
O ponto-chave aqui é a estatística. Projetar uma estratégia de amostragem que utilize o menor número de validações possível, com a maior probabilidade, para detectar problemas de ausência de dados, é o objetivo. Mas surge o problema — quanto mais validações, maior o consumo de largura de banda da rede; e, se fizerem poucas validações, a segurança fica comprometida.
O maior receio dos clientes leves é exatamente essa contradição. Eles não podem validar todos os dados, por isso precisam confiar em modelos matemáticos engenhosos. A scientificidade da amostragem determina se o mecanismo de validação pode ser confiável. Em outras palavras, se a sua matemática for rigorosa, os clientes leves podem trabalhar com tranquilidade; se a matemática for frouxa, a segurança também será prejudicada.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
13 gostos
Recompensa
13
10
Republicar
Partilhar
Comentar
0/400
HodlAndChill
· 01-14 13:14
Haha, isto é brincar com fogo, se a estratégia de amostragem for um pouco mais relaxada, acaba por levar com a culpa
Ver originalResponder0
FUD_Whisperer
· 01-13 10:13
Mais uma vez, o mesmo problema... A amostragem é uma arte de equilíbrio, se a matemática ficar um pouco mais relaxada, todo o sistema fica em risco
Ver originalResponder0
ProtocolRebel
· 01-11 17:52
Isto é jogo, largura de banda e segurança nunca vencem, por mais sofisticado que seja o design de amostragem, é sempre uma questão de apostar na probabilidade.
A matemática é rigorosa, mas a realidade não segue a matemática, haha.
O cliente leve, na essência, é um produto de compromisso, não há como escapar desse impasse.
Estratégias de amostragem são incríveis, mas não adianta, a capacidade na cadeia é limitada, o que mais se pode pensar.
Portanto, no final das contas, ainda é preciso confiar em certos nós de validação, o que acaba retornando à centralização...
Ver originalResponder0
FlashLoanLarry
· 01-11 17:52
não, isto é apenas uma troca entre largura de banda e segurança disfarçada com matemática sofisticada... já vi este filme antes lol
Ver originalResponder0
LiquidityWhisperer
· 01-11 17:52
Essa amostragem, aquela amostragem, no fundo ainda é uma questão de apostar na probabilidade, né? E se aquele "máximo de probabilidade" na verdade não for assim tão alto, o que acontece? O cliente leve acaba se tornando um filtro.
Ver originalResponder0
MEVHunter
· 01-11 17:46
Amostragem é apenas teatro de segurança se a matemática não for à prova de balas... já vi muitas estratégias "ótimas" serem exploradas no momento em que alguém descobre as lacunas de probabilidade
Ver originalResponder0
PaperHandsCriminal
· 01-11 17:45
Mais do mesmo, a amostragem é só uma questão de sorte. Ter largura de banda e segurança, é preciso escolher um ou outro; essa lógica de design é bastante irónica.
Ver originalResponder0
LiquidityHunter
· 01-11 17:39
Ainda às 3 horas da manhã a pensar nisso, para ser honesto, o design de amostragem do DA afeta diretamente a eficiência da rede... o compromisso entre largura de banda e segurança deve ser preciso até às três casas decimais, caso contrário, se um cliente leve falhar, toda a profundidade de liquidez terá uma lacuna.
Ver originalResponder0
MetaverseHobo
· 01-11 17:29
A estratégia de amostragem, na essência, é um jogo de probabilidades; se o modelo matemático fraqueza, a segurança desmorona. Essa é a dor constante dos clientes leves.
Por que é que a validação de disponibilidade de dados necessita de amostragem? Simplificando, é impossível verificar todo o conjunto de dados de uma só vez.
O ponto-chave aqui é a estatística. Projetar uma estratégia de amostragem que utilize o menor número de validações possível, com a maior probabilidade, para detectar problemas de ausência de dados, é o objetivo. Mas surge o problema — quanto mais validações, maior o consumo de largura de banda da rede; e, se fizerem poucas validações, a segurança fica comprometida.
O maior receio dos clientes leves é exatamente essa contradição. Eles não podem validar todos os dados, por isso precisam confiar em modelos matemáticos engenhosos. A scientificidade da amostragem determina se o mecanismo de validação pode ser confiável. Em outras palavras, se a sua matemática for rigorosa, os clientes leves podem trabalhar com tranquilidade; se a matemática for frouxa, a segurança também será prejudicada.