J’ai déjà dit dans de nombreux articles que l’agent IA sera le « salut » de nombreux vieux récits dans l’industrie de la cryptographie. Dans la dernière vague d’évolution narrative autour de l’autonomie de l’IA, TEE était autrefois à l’aube, mais il existe également un concept technique plus « impopulaire » que TEE et même ZKP FHE - le chiffrement entièrement homomorphe, qui va également « renaître » en raison de l’entraînement de la piste IA. Ci-dessous, trions la logique à travers les cas :
Le FHE est une technique cryptographique qui permet de calculer directement sur des données chiffrées, considérée comme le "Saint Graal". Comparé à des technologies populaires comme le ZKP et le TEE, elle se trouve dans une position relativement moins en vue, principalement en raison des coûts et des cas d'utilisation.
Mind Network se concentre sur l'infrastructure FHE et a lancé la chaîne FHE axée sur les agents IA - MindChain. Bien qu'elle ait levé plus de dix millions de dollars et ait connu plusieurs années de développement technologique, l'attention du marché reste sous-estimée en raison des limitations du FHE lui-même.
Cependant, récemment, Mind Network a lancé de nombreuses bonnes nouvelles autour des scénarios d'application de l'IA. Par exemple, son SDK FHE Rust a été intégré au grand modèle open source DeepSeek, devenant un maillon clé dans les scénarios d'entraînement de l'IA et fournissant une base sécurisée pour la réalisation d'une IA de confiance. Pourquoi le FHE peut-il se démarquer dans le calcul de la confidentialité de l'IA ? Peut-il réaliser un virage en épingle ou une rédemption grâce à la narration de l'Agent IA ?
En termes simples : le chiffrement homomorphe complet (FHE) est une technique cryptographique qui peut agir directement sur l'architecture de la chaîne publique actuelle, permettant d'effectuer des calculs arbitraires tels que l'addition et la multiplication sur des données chiffrées, sans avoir besoin de déchiffrer les données au préalable.
En d'autres termes, l'application de la technologie FHE permet de réaliser un chiffrement complet des données, de l'entrée à la sortie, même les nœuds validant le consensus de la chaîne publique ne peuvent pas accéder aux informations en clair. Cela signifie que le FHE peut fournir une base technique pour l'entraînement de certains modèles linguistiques d'IA dans des scénarios verticaux tels que la santé et la finance.
Permettre au FHE de devenir une solution "préférée" pour l'entraînement de grands modèles d'IA dans des scénarios verticaux riches et en combinaison avec une architecture distribuée basée sur la blockchain. Que ce soit pour la collaboration inter-institutions sur des données médicales ou pour l'inférence de la vie privée dans des scénarios de transactions financières, le FHE peut devenir un choix complémentaire grâce à ses particularités.
Ceci n'est en fait pas abstrait, un exemple simple le rendra clair : par exemple, l'Agent IA en tant qu'application destinée aux clients, son arrière-plan se connecte généralement à différents fournisseurs de grands modèles d'IA, tels que DeepSeek, Claude, OpenAI, etc. Mais comment s'assurer que dans certains scénarios d'application financière hautement sensibles, le processus d'exécution de l'Agent IA ne sera pas affecté par un arrière-plan de grand modèle qui modifie soudainement les règles ? Cela nécessite certainement un chiffrement des prompts d'entrée, afin que lorsque les fournisseurs de LLMs traitent directement les données chiffrées, il n'y ait pas d'interférences forcées affectant l'équité.
Alors, que signifie le concept de "IA de confiance" ? L'IA de confiance est une vision d'IA décentralisée basée sur le FHE que Mind Network tente de construire, permettant à plusieurs parties de réaliser un entraînement et une inférence de modèles efficaces grâce à la puissance de calcul distribuée des GPU, sans dépendre de serveurs centraux, et fournissant une validation de consensus basée sur le FHE pour les agents IA. Cette conception élimine les limitations de l'IA centralisée d'origine, offrant une double garantie de confidentialité et d'autonomie pour le fonctionnement des agents IA Web3 dans une architecture distribuée.
Cela correspond davantage à la direction narrative de l'architecture de la chaîne publique distribuée de Mind Network elle-même. Par exemple, lors du processus de transaction sur la chaîne spéciale, FHE peut protéger l'inférence et l'exécution des données Oracle des différentes parties, permettant à l'agent AI de prendre des décisions autonomes en matière de transactions sans avoir à révéler ses positions ou ses stratégies, etc.
Alors, pourquoi dit-on que le FHE aura une trajectoire d'infiltration industrielle similaire à celle du TEE et qu'il apportera des opportunités directes en raison de l'explosion des cas d'utilisation de l'IA ?
Auparavant, TEE était en mesure de saisir l’opportunité d’AI Agent, grâce à l’environnement matériel TEE, qui peut réaliser la conservation des données dans un état privé, puis permettre à AI Agent d’héberger indépendamment des clés privées, afin qu’AI Agent puisse réaliser un récit à la mode de gestion autonome des actifs. Cependant, il existe une faille dans la garde des clés privées par TEE : la confiance repose sur des fournisseurs de matériel tiers (tels qu’Intel). Pour que les TEE fonctionnent, une architecture de chaîne distribuée est nécessaire pour attacher un ensemble supplémentaire de contraintes de « consensus » ouvertes et transparentes à l’environnement des TEE. En revanche, les PHE peuvent être basés sur une architecture de chaîne décentralisée sans dépendre d’un tiers.
FHE et TEE ont des niches écologiques similaires. Ne vous laissez pas tromper par le fait que l'application de TEE dans l'écosystème web3 n'est pas encore répandue, mais dans le domaine web2, c'est déjà une technologie très mature. En comparaison, FHE trouvera également progressivement sa valeur d'existence à la fois dans le web2 et le web3 sous l'explosion actuelle de la tendance AI.
Au-dessus.
En résumé, on peut voir que le chiffrement homomorphe complet, ce saint graal du chiffrement, deviendra sans aucun doute l'une des pierres angulaires de la sécurité avec l'IA comme condition préalable pour l'avenir, et il y a une possibilité croissante qu'il soit largement adopté.
Bien sûr, malgré cela, il est inévitable de ne pas éviter le problème du coût d'implémentation de FHE dans les algorithmes. Si cela peut être appliqué dans des scénarios d'IA web2, puis lié à des scénarios d'IA web3, cela libérerait sûrement de manière inattendue un "effet d'échelle" qui diluerait le coût global, permettant une application plus répandue.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
De « Saint Graal » à pierre angulaire : comment FHE redéfinit l'écosystème de calcul privé de Web3 ?
J’ai déjà dit dans de nombreux articles que l’agent IA sera le « salut » de nombreux vieux récits dans l’industrie de la cryptographie. Dans la dernière vague d’évolution narrative autour de l’autonomie de l’IA, TEE était autrefois à l’aube, mais il existe également un concept technique plus « impopulaire » que TEE et même ZKP FHE - le chiffrement entièrement homomorphe, qui va également « renaître » en raison de l’entraînement de la piste IA. Ci-dessous, trions la logique à travers les cas :
Le FHE est une technique cryptographique qui permet de calculer directement sur des données chiffrées, considérée comme le "Saint Graal". Comparé à des technologies populaires comme le ZKP et le TEE, elle se trouve dans une position relativement moins en vue, principalement en raison des coûts et des cas d'utilisation.
Mind Network se concentre sur l'infrastructure FHE et a lancé la chaîne FHE axée sur les agents IA - MindChain. Bien qu'elle ait levé plus de dix millions de dollars et ait connu plusieurs années de développement technologique, l'attention du marché reste sous-estimée en raison des limitations du FHE lui-même.
Cependant, récemment, Mind Network a lancé de nombreuses bonnes nouvelles autour des scénarios d'application de l'IA. Par exemple, son SDK FHE Rust a été intégré au grand modèle open source DeepSeek, devenant un maillon clé dans les scénarios d'entraînement de l'IA et fournissant une base sécurisée pour la réalisation d'une IA de confiance. Pourquoi le FHE peut-il se démarquer dans le calcul de la confidentialité de l'IA ? Peut-il réaliser un virage en épingle ou une rédemption grâce à la narration de l'Agent IA ?
En termes simples : le chiffrement homomorphe complet (FHE) est une technique cryptographique qui peut agir directement sur l'architecture de la chaîne publique actuelle, permettant d'effectuer des calculs arbitraires tels que l'addition et la multiplication sur des données chiffrées, sans avoir besoin de déchiffrer les données au préalable.
En d'autres termes, l'application de la technologie FHE permet de réaliser un chiffrement complet des données, de l'entrée à la sortie, même les nœuds validant le consensus de la chaîne publique ne peuvent pas accéder aux informations en clair. Cela signifie que le FHE peut fournir une base technique pour l'entraînement de certains modèles linguistiques d'IA dans des scénarios verticaux tels que la santé et la finance.
Permettre au FHE de devenir une solution "préférée" pour l'entraînement de grands modèles d'IA dans des scénarios verticaux riches et en combinaison avec une architecture distribuée basée sur la blockchain. Que ce soit pour la collaboration inter-institutions sur des données médicales ou pour l'inférence de la vie privée dans des scénarios de transactions financières, le FHE peut devenir un choix complémentaire grâce à ses particularités.
Ceci n'est en fait pas abstrait, un exemple simple le rendra clair : par exemple, l'Agent IA en tant qu'application destinée aux clients, son arrière-plan se connecte généralement à différents fournisseurs de grands modèles d'IA, tels que DeepSeek, Claude, OpenAI, etc. Mais comment s'assurer que dans certains scénarios d'application financière hautement sensibles, le processus d'exécution de l'Agent IA ne sera pas affecté par un arrière-plan de grand modèle qui modifie soudainement les règles ? Cela nécessite certainement un chiffrement des prompts d'entrée, afin que lorsque les fournisseurs de LLMs traitent directement les données chiffrées, il n'y ait pas d'interférences forcées affectant l'équité.
Alors, que signifie le concept de "IA de confiance" ? L'IA de confiance est une vision d'IA décentralisée basée sur le FHE que Mind Network tente de construire, permettant à plusieurs parties de réaliser un entraînement et une inférence de modèles efficaces grâce à la puissance de calcul distribuée des GPU, sans dépendre de serveurs centraux, et fournissant une validation de consensus basée sur le FHE pour les agents IA. Cette conception élimine les limitations de l'IA centralisée d'origine, offrant une double garantie de confidentialité et d'autonomie pour le fonctionnement des agents IA Web3 dans une architecture distribuée.
Cela correspond davantage à la direction narrative de l'architecture de la chaîne publique distribuée de Mind Network elle-même. Par exemple, lors du processus de transaction sur la chaîne spéciale, FHE peut protéger l'inférence et l'exécution des données Oracle des différentes parties, permettant à l'agent AI de prendre des décisions autonomes en matière de transactions sans avoir à révéler ses positions ou ses stratégies, etc.
Alors, pourquoi dit-on que le FHE aura une trajectoire d'infiltration industrielle similaire à celle du TEE et qu'il apportera des opportunités directes en raison de l'explosion des cas d'utilisation de l'IA ?
Auparavant, TEE était en mesure de saisir l’opportunité d’AI Agent, grâce à l’environnement matériel TEE, qui peut réaliser la conservation des données dans un état privé, puis permettre à AI Agent d’héberger indépendamment des clés privées, afin qu’AI Agent puisse réaliser un récit à la mode de gestion autonome des actifs. Cependant, il existe une faille dans la garde des clés privées par TEE : la confiance repose sur des fournisseurs de matériel tiers (tels qu’Intel). Pour que les TEE fonctionnent, une architecture de chaîne distribuée est nécessaire pour attacher un ensemble supplémentaire de contraintes de « consensus » ouvertes et transparentes à l’environnement des TEE. En revanche, les PHE peuvent être basés sur une architecture de chaîne décentralisée sans dépendre d’un tiers.
FHE et TEE ont des niches écologiques similaires. Ne vous laissez pas tromper par le fait que l'application de TEE dans l'écosystème web3 n'est pas encore répandue, mais dans le domaine web2, c'est déjà une technologie très mature. En comparaison, FHE trouvera également progressivement sa valeur d'existence à la fois dans le web2 et le web3 sous l'explosion actuelle de la tendance AI.
Au-dessus.
En résumé, on peut voir que le chiffrement homomorphe complet, ce saint graal du chiffrement, deviendra sans aucun doute l'une des pierres angulaires de la sécurité avec l'IA comme condition préalable pour l'avenir, et il y a une possibilité croissante qu'il soit largement adopté.
Bien sûr, malgré cela, il est inévitable de ne pas éviter le problème du coût d'implémentation de FHE dans les algorithmes. Si cela peut être appliqué dans des scénarios d'IA web2, puis lié à des scénarios d'IA web3, cela libérerait sûrement de manière inattendue un "effet d'échelle" qui diluerait le coût global, permettant une application plus répandue.