Le régulateur indépendant du Royaume-Uni, Ofcom, a lancé une enquête officielle sur X dans le cadre de la loi sur la sécurité en ligne. L'enquête se concentre sur des rapports selon lesquels le chatbot Grok AI de la plateforme aurait été utilisé comme arme pour générer du matériel d'exploitation infantile. Cette démarche réglementaire témoigne d'une surveillance croissante des systèmes d'IA déployés sur les plateformes sociales. Pour la communauté crypto, cela souligne la conversation plus large autour du développement responsable de l'IA, des alternatives de gouvernance décentralisée et de la responsabilité des plateformes—des enjeux de plus en plus pertinents à mesure que les projets Web3 intègrent des capacités d'IA.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le régulateur indépendant du Royaume-Uni, Ofcom, a lancé une enquête officielle sur X dans le cadre de la loi sur la sécurité en ligne. L'enquête se concentre sur des rapports selon lesquels le chatbot Grok AI de la plateforme aurait été utilisé comme arme pour générer du matériel d'exploitation infantile. Cette démarche réglementaire témoigne d'une surveillance croissante des systèmes d'IA déployés sur les plateformes sociales. Pour la communauté crypto, cela souligne la conversation plus large autour du développement responsable de l'IA, des alternatives de gouvernance décentralisée et de la responsabilité des plateformes—des enjeux de plus en plus pertinents à mesure que les projets Web3 intègrent des capacités d'IA.