OpenAI publie un plan directeur de protection de l’enfance pour lutter contre l’exploitation activée par l’IA

Decrypt

En bref

  • OpenAI a publié son « Child Safety Blueprint », qui traite de l’exploitation sexuelle des enfants rendue possible par l’IA.
  • Le cadre met l’accent sur des réformes juridiques, une coordination renforcée des signalements et des garde-fous intégrés aux systèmes d’IA.
  • La proposition a été élaborée avec l’apport de groupes de protection de l’enfance, d’advocates des procureurs généraux et d’organisations à but non lucratif.

Visant à faire face à la hausse de l’exploitation sexuelle des enfants rendue possible par l’IA, OpenAI a publié mercredi un plan stratégique décrivant de nouvelles mesures de sécurité que l’industrie peut mettre en place pour contribuer à freiner l’utilisation de l’IA dans la création de contenus d’abus sexuel sur mineurs. Dans ce cadre, OpenAI énumère des mesures juridiques, opérationnelles et techniques destinées à renforcer les protections contre les abus rendus possibles par l’IA et à améliorer la coordination entre les entreprises technologiques et les enquêteurs. « L’exploitation sexuelle des enfants est l’un des défis les plus urgents de l’ère numérique », a écrit l’entreprise. « L’IA modifie rapidement à la fois la manière dont ces préjudices apparaissent dans l’ensemble de l’industrie et la manière dont ils peuvent être traités à grande échelle. »

OpenAI a indiqué que la proposition intègre des retours d’organisations œuvrant pour la protection de l’enfance et la sécurité en ligne, notamment le National Center for Missing and Exploited Children et l’Attorney General Alliance ainsi que son groupe de travail sur l’IA. « L’IA générative accélère le crime d’exploitation sexuelle en ligne des enfants de façons profondément préoccupantes—en réduisant les barrières, en augmentant l’échelle et en permettant de nouvelles formes de préjudice », a déclaré Michelle DeLaune, présidente & CEO du National Center for Missing & Exploited Children, dans un communiqué. « Mais en même temps, le National Center for Missing & Exploited Children se réjouit de voir des entreprises comme OpenAI réfléchir à la manière dont ces outils peuvent être conçus de façon plus responsable, avec des garde-fous intégrés dès le départ. »  OpenAI a déclaré que le cadre combine des normes juridiques, des systèmes de signalement de l’industrie et des garde-fous techniques au sein des modèles d’IA. L’entreprise a précisé que ces mesures visent à aider à identifier plus tôt les risques d’exploitation et à renforcer la responsabilité au sein des plateformes en ligne.

Le blueprint identifie des domaines d’action, notamment la mise à jour des lois pour traiter les contenus d’abus sexuel sur enfants générés par l’IA ou modifiés, l’amélioration de la manière dont les fournisseurs en ligne signalent les signaux d’abus et se coordonnent avec les enquêteurs, et l’intégration de garde-fous dans les systèmes d’IA conçus pour empêcher les usages détournés. « Aucune intervention unique ne peut relever ce défi à elle seule », a écrit l’entreprise. « Ce cadre réunit des approches juridiques, opérationnelles et techniques afin de mieux identifier les risques, d’accélérer les réponses et de soutenir la responsabilisation, tout en veillant à ce que les autorités chargées de l’application restent solides à mesure que la technologie évolue. » Le blueprint arrive alors que des défenseurs de la sécurité de l’enfance ont exprimé des inquiétudes concernant le fait que des systèmes d’IA générative capables de produire des images réalistes pourraient être utilisés pour créer des représentations manipulées ou synthétiques de mineurs. En février, l’UNICEF a appelé les gouvernements du monde entier à adopter des lois criminalisant les contenus d’abus sur enfants générés par l’IA. En janvier, la Commission européenne a lancé une enquête formelle pour déterminer si X, auparavant connue sous le nom de Twitter, a enfreint les règles numériques de l’UE en ne parvenant pas à empêcher le modèle d’IA natif de la plateforme, Grok, de générer du contenu illégal, alors que des enquêteurs ont également ouvert des enquêtes au Royaume-Uni et en Australie. En notant que les lois seules ne suffiront pas à arrêter la propagation de contenus d’abus générés par l’IA, OpenAI a déclaré que des normes plus strictes de l’industrie seront nécessaires à mesure que les systèmes d’IA deviendront plus performants. « En interrompant plus tôt les tentatives d’exploitation, en améliorant la qualité des signaux envoyés aux forces de l’ordre et en renforçant la responsabilisation dans l’ensemble de l’écosystème, ce cadre vise à prévenir les préjudices avant qu’ils ne surviennent et à contribuer à garantir une protection plus rapide des enfants lorsque des risques apparaissent », a déclaré OpenAI.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire