L’expérience contrôlée de Humanity Protocol a montré que l’IA peut créer des profils falsifiés convaincants pour contourner la vérification d’identité, révélant des faiblesses critiques dans les systèmes KYC traditionnels et soulignant le risque croissant de fraude en ligne alimentée par l’IA.
Humanity Protocol, une startup technologique axée sur le développement de la couche de confiance d’Internet, a récemment mené une expérience sociale contrôlée pour explorer comment l’IA peut être utilisée pour créer des profils falsifiés très crédibles, contourner la vérification d’identité sur une grande plateforme de rencontres, et interagir avec des utilisateurs réels à grande échelle.
Les résultats mettent en évidence des préoccupations urgentes concernant l’efficacité des systèmes Know Your Customer (KYC) conventionnels à une époque dominée par l’IA générative, ainsi que le potentiel pour ces vulnérabilités d’être exploitées par des acteurs malveillants.
L’expérience a duré deux mois, d’octobre à décembre 2025, et a impliqué six membres de l’équipe Humanity Protocol. En utilisant des outils d’IA accessibles au public, notamment Reve AI, ChatGPT, Nanobanana et Midjourney, l’équipe a généré quatre profils Tinder distincts, avec photos et détails biographiques.
Afin de maintenir une activité réaliste, l’équipe a utilisé TinderGPT, un outil open-source sur GitHub, permettant aux profils de gérer plus de 100 conversations simultanées avec de vrais utilisateurs sur l’application de rencontres. Bien que les comptes aient été créés dans plusieurs pays — Portugal, Espagne, Serbie, Indonésie et Thaïlande — tous les profils ont utilisé Tinder Gold pour définir leur localisation au Portugal. Au cours de l’expérience, les comptes générés par l’IA ont interagi avec 296 utilisateurs réels de Tinder et ont réussi à convaincre 40 personnes de se rencontrer en personne.
L’expérience s’est terminée de manière éthique dans un restaurant à Lisbonne, Portugal, où tous les participants ont été informés de la situation à leur arrivée et ont été invités à dîner par la startup. La conception de l’expérience a assuré qu’aucun dommage financier, émotionnel ou physique n’a été causé, et l’objectif déclaré était de révéler les vulnérabilités systémiques plutôt que de les exploiter.
« Ce n’était pas une question de piéger les gens pour le plaisir », a déclaré Terence Kwok, fondateur de Humanity Protocol, dans une déclaration écrite. « Il s’agissait de tester la robustesse des systèmes sur lesquels nous comptons tous et de montrer à quel point la confiance peut être facilement fabriquée lorsque l’IA est impliquée. Si une petite équipe peut faire cela en tant qu’expérience, imaginez ce que des acteurs malveillants coordonnés pourraient réaliser avec une intention malveillante », a-t-il ajouté.
Systèmes KYC, Renforcer la sécurité en ligne et la prévention de la fraude
Les résultats soulignent un défi plus large pour les plateformes numériques : les protocoles KYC traditionnels ont été conçus dans un environnement pré-IA générative et deviennent de plus en plus insuffisants. Les mesures de vérification standard telles que la vérification de photos, la détection de vivacité basique et le téléchargement de documents peinent à suivre le rythme des outils d’IA capables de produire des images, des voix et des comportements hyper-réalistes qui imitent de manière convaincante des utilisateurs humains.
Alors que l’impact immédiat sur les plateformes de rencontres peut sembler limité à une perte de temps ou à une manipulation émotionnelle, les enjeux sont bien plus élevés dans les contextes financiers et de sécurité. Selon la Federal Trade Commission des États-Unis, les Américains ont perdu plus de 1,3 milliard de dollars à cause d’arnaques sentimentales en 2022, ce qui en fait la catégorie de fraude la plus coûteuse pour les consommateurs. À mesure que la technologie de l’IA continue de progresser, la distinction entre expérimentation bénigne et fraude à grande échelle se réduit rapidement. Sans cadres KYC capables de s’adapter à l’IA générative et de vérifier l’humanité plutôt que simplement l’identité, les plateformes en ligne risquent de devenir les cibles principales de la prochaine génération d’exploitation alimentée par l’IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L'expérience Humanity Protocol révèle comment l'IA peut contourner la vérification d'identité (KYC) et exploiter la confiance numérique
En Bref
L’expérience contrôlée de Humanity Protocol a montré que l’IA peut créer des profils falsifiés convaincants pour contourner la vérification d’identité, révélant des faiblesses critiques dans les systèmes KYC traditionnels et soulignant le risque croissant de fraude en ligne alimentée par l’IA.
Humanity Protocol, une startup technologique axée sur le développement de la couche de confiance d’Internet, a récemment mené une expérience sociale contrôlée pour explorer comment l’IA peut être utilisée pour créer des profils falsifiés très crédibles, contourner la vérification d’identité sur une grande plateforme de rencontres, et interagir avec des utilisateurs réels à grande échelle.
Les résultats mettent en évidence des préoccupations urgentes concernant l’efficacité des systèmes Know Your Customer (KYC) conventionnels à une époque dominée par l’IA générative, ainsi que le potentiel pour ces vulnérabilités d’être exploitées par des acteurs malveillants.
L’expérience a duré deux mois, d’octobre à décembre 2025, et a impliqué six membres de l’équipe Humanity Protocol. En utilisant des outils d’IA accessibles au public, notamment Reve AI, ChatGPT, Nanobanana et Midjourney, l’équipe a généré quatre profils Tinder distincts, avec photos et détails biographiques.
Afin de maintenir une activité réaliste, l’équipe a utilisé TinderGPT, un outil open-source sur GitHub, permettant aux profils de gérer plus de 100 conversations simultanées avec de vrais utilisateurs sur l’application de rencontres. Bien que les comptes aient été créés dans plusieurs pays — Portugal, Espagne, Serbie, Indonésie et Thaïlande — tous les profils ont utilisé Tinder Gold pour définir leur localisation au Portugal. Au cours de l’expérience, les comptes générés par l’IA ont interagi avec 296 utilisateurs réels de Tinder et ont réussi à convaincre 40 personnes de se rencontrer en personne.
L’expérience s’est terminée de manière éthique dans un restaurant à Lisbonne, Portugal, où tous les participants ont été informés de la situation à leur arrivée et ont été invités à dîner par la startup. La conception de l’expérience a assuré qu’aucun dommage financier, émotionnel ou physique n’a été causé, et l’objectif déclaré était de révéler les vulnérabilités systémiques plutôt que de les exploiter.
« Ce n’était pas une question de piéger les gens pour le plaisir », a déclaré Terence Kwok, fondateur de Humanity Protocol, dans une déclaration écrite. « Il s’agissait de tester la robustesse des systèmes sur lesquels nous comptons tous et de montrer à quel point la confiance peut être facilement fabriquée lorsque l’IA est impliquée. Si une petite équipe peut faire cela en tant qu’expérience, imaginez ce que des acteurs malveillants coordonnés pourraient réaliser avec une intention malveillante », a-t-il ajouté.
Systèmes KYC, Renforcer la sécurité en ligne et la prévention de la fraude
Les résultats soulignent un défi plus large pour les plateformes numériques : les protocoles KYC traditionnels ont été conçus dans un environnement pré-IA générative et deviennent de plus en plus insuffisants. Les mesures de vérification standard telles que la vérification de photos, la détection de vivacité basique et le téléchargement de documents peinent à suivre le rythme des outils d’IA capables de produire des images, des voix et des comportements hyper-réalistes qui imitent de manière convaincante des utilisateurs humains.
Alors que l’impact immédiat sur les plateformes de rencontres peut sembler limité à une perte de temps ou à une manipulation émotionnelle, les enjeux sont bien plus élevés dans les contextes financiers et de sécurité. Selon la Federal Trade Commission des États-Unis, les Américains ont perdu plus de 1,3 milliard de dollars à cause d’arnaques sentimentales en 2022, ce qui en fait la catégorie de fraude la plus coûteuse pour les consommateurs. À mesure que la technologie de l’IA continue de progresser, la distinction entre expérimentation bénigne et fraude à grande échelle se réduit rapidement. Sans cadres KYC capables de s’adapter à l’IA générative et de vérifier l’humanité plutôt que simplement l’identité, les plateformes en ligne risquent de devenir les cibles principales de la prochaine génération d’exploitation alimentée par l’IA.