Il y a deux jours, en discutant avec un ami, il a lancé en plaisantant une question : avec tous ces grands modèles, qui peut garantir qu'ils ne contiennent pas nos photos et nos petits mots ?
"Comment sont obtenus les données ? En les crawlant. Ont-ils obtenu notre consentement ? Non."
Cela ressemble à une blague, mais en y réfléchissant, cela fait froid dans le dos. Nos conversations quotidiennes, vidéos courtes, informations de commandes, tout est exploité, revendu et analysé dans l'ombre. On prétend que c'est "anonyme" ? Face à une quantité suffisante de données, c'est une blague — une étude académique l'a déjà prouvé l'année dernière : en combinant les données comportementales et les informations publiques, la probabilité de réidentifier une personne est bien plus élevée que ce que l'on imagine.
Cela dépasse déjà le simple "fuite de vie privée" pour devenir une commercialisation de votre identité numérique, sans que vous en ayez conscience.
Je me suis alors demandé : et si, lors de la circulation des données, celles-ci portaient déjà une "clause de confidentialité" ? Par exemple, vous acceptez que vos données médicales soient utilisées pour entraîner un modèle d'IA, à condition qu'elles ne puissent pas être reliées à votre identité ; ou vous téléchargez un design original, autorisé à être utilisé un nombre limité de fois, mais chaque utilisation doit laisser une trace sur la blockchain — c'est ça, la véritable souveraineté des données.
Cette idée m'a amené à m'intéresser au protocole Walrus. Il ne se contente pas de stocker passivement comme un stockage cloud classique, mais intègre au niveau du stockage un cadre de confidentialité programmable. Vous pouvez uploader un grand ensemble de données pour l'entraînement d'IA, et configurer directement : quelles parties peuvent être vérifiées publiquement, lesquelles doivent être cryptées et conservées, sous quelles conditions une identité peut accéder à ces données. Ces règles sont exécutées automatiquement par des contrats intelligents, et non par une approbation humaine — permettant aux utilisateurs de réellement contrôler l'utilisation de leurs données.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
24 J'aime
Récompense
24
8
Reposter
Partager
Commentaire
0/400
DAOdreamer
· 01-11 18:06
Jeune adolescent de deuxième année, obsédé par la narration technologique Web3, il peut tout ramener à la blockchain.
Maintenant, voilà que nos données ont déjà été transformées en "marché noir de la nourriture" pour les grands modèles...
Voir l'originalRépondre0
SignatureLiquidator
· 01-10 07:16
Vraiment effrayant, nos données sont piratées n'importe comment, et on peut encore les traiter de manière anonyme, c'est une blague
Voir l'originalRépondre0
GasGuzzler
· 01-09 18:52
Putain, c'est exactement ce que je voulais, la confidentialité programmable sur la chaîne, c'est génial.
Voir l'originalRépondre0
TokenAlchemist
· 01-09 18:52
walrus est vraiment en train de faire avancer les choses... la confidentialité programmable au niveau du stockage résout en réalité le problème d'asymétrie d'information dont la plupart des gens ne se rendent même pas compte qu'ils en souffrent. pas seulement un autre mouvement de théâtre de la confidentialité.
Voir l'originalRépondre0
MevWhisperer
· 01-09 18:45
Ah là là... la souveraineté des données doit vraiment être mise sur la blockchain pour être fiable, je ne crois pas à la "gestion anonyme" centralisée.
Voir l'originalRépondre0
GateUser-c799715c
· 01-09 18:44
C'était bien temps, qui croit encore à ce discours de traitement anonymisé ?
La souveraineté des données, c'est l'angle gagnant, faut vraiment la garder entre ses mains
Walrus avec cette logique de suivi on-chain, c'est vraiment hardcore, bien mieux que le monopole des clients traditionnels actuels
Mais le truc c'est que les gens ordinaires vont vraiment configurer tout ça ? Faut qu'il y ait une solution simple et facile à utiliser
Tes données tournent déjà dans les modèles de quelqu'un d'autre, parler de protection de la vie privée maintenant c'est un peu tard non ?
Voir l'originalRépondre0
GateUser-26d7f434
· 01-09 18:43
Vraiment, cette histoire de crawler aurait dû être régulée depuis longtemps, c'est maintenant un véritable désert de données.
Les enregistrements sur la blockchain, c'est une bonne idée, c'est toujours mieux que des transactions en cachette.
Walrus, ça a l'air fiable, mais il faut que beaucoup de gens l'utilisent pour que ça marche.
Ce que vous faites de vos données, c'est vous qui décidez, mais c'est facile à dire, difficile à faire.
Le traitement anonyme, c'est une arnaque, l'empreinte digitale des données ne peut pas vraiment être cachée.
Les données médicales doivent vraiment être traitées avec précaution, on ne peut pas les fouiller à la légère.
Les cadres de confidentialité programmable ? Ça ressemble à ce que sera le futur.
La souveraineté des données, ce concept, Web3 en parle depuis longtemps, mais Walrus peut-il vraiment se concrétiser ?
Voir l'originalRépondre0
TestnetScholar
· 01-09 18:26
Le bot a réussi à accéder à mon selfie sans même s'en rendre compte, c'est vraiment impressionnant
La souveraineté des données, c'est joli à dire, mais qui va vraiment mettre ses données sur la blockchain ?
Walrus, ça sonne bien, mais je ne sais pas combien de temps ça va durer
C'est ça que Web3 devrait faire, pas spéculer sur les cryptomonnaies
Signer des clauses de confidentialité à la va-vite, le principal, c'est que quelqu'un vérifie vraiment
Il y a deux jours, en discutant avec un ami, il a lancé en plaisantant une question : avec tous ces grands modèles, qui peut garantir qu'ils ne contiennent pas nos photos et nos petits mots ?
"Comment sont obtenus les données ? En les crawlant. Ont-ils obtenu notre consentement ? Non."
Cela ressemble à une blague, mais en y réfléchissant, cela fait froid dans le dos. Nos conversations quotidiennes, vidéos courtes, informations de commandes, tout est exploité, revendu et analysé dans l'ombre. On prétend que c'est "anonyme" ? Face à une quantité suffisante de données, c'est une blague — une étude académique l'a déjà prouvé l'année dernière : en combinant les données comportementales et les informations publiques, la probabilité de réidentifier une personne est bien plus élevée que ce que l'on imagine.
Cela dépasse déjà le simple "fuite de vie privée" pour devenir une commercialisation de votre identité numérique, sans que vous en ayez conscience.
Je me suis alors demandé : et si, lors de la circulation des données, celles-ci portaient déjà une "clause de confidentialité" ? Par exemple, vous acceptez que vos données médicales soient utilisées pour entraîner un modèle d'IA, à condition qu'elles ne puissent pas être reliées à votre identité ; ou vous téléchargez un design original, autorisé à être utilisé un nombre limité de fois, mais chaque utilisation doit laisser une trace sur la blockchain — c'est ça, la véritable souveraineté des données.
Cette idée m'a amené à m'intéresser au protocole Walrus. Il ne se contente pas de stocker passivement comme un stockage cloud classique, mais intègre au niveau du stockage un cadre de confidentialité programmable. Vous pouvez uploader un grand ensemble de données pour l'entraînement d'IA, et configurer directement : quelles parties peuvent être vérifiées publiquement, lesquelles doivent être cryptées et conservées, sous quelles conditions une identité peut accéder à ces données. Ces règles sont exécutées automatiquement par des contrats intelligents, et non par une approbation humaine — permettant aux utilisateurs de réellement contrôler l'utilisation de leurs données.