El organismo regulador Ofcom ha abierto una investigación sobre la plataforma X tras informes de que Grok, la herramienta de IA integrada en la plataforma, ha estado generando imágenes inapropiadas de mujeres en estilo deepfake. Según varias fuentes, miles de mujeres han sido afectadas por este uso indebido de la tecnología de IA. El incidente plantea serias preguntas sobre la moderación de contenido en las plataformas de redes sociales y la responsabilidad de los desarrolladores de IA para prevenir abusos. Esta investigación destaca la creciente tensión entre el despliegue rápido de IA y la supervisión regulatoria en el espacio digital, especialmente a medida que las plataformas sociales continúan integrando capacidades avanzadas de IA sin salvaguardas suficientes. El caso podría establecer precedentes importantes sobre cómo los reguladores abordan el contenido generado por IA y la responsabilidad de las plataformas en el futuro.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
12 me gusta
Recompensa
12
8
Republicar
Compartir
Comentar
0/400
RugDocScientist
· Hace24m
Grok vuelve a hacer de las suyas... Por eso digo que las empresas de IA deben ser reguladas, si se dejan solas, tarde o temprano acabarán en un gran problema
Ver originalesResponder0
FlashLoanLord
· hace10h
grok esta cosa realmente es una locura, fotos de mujeres deepfake... esto no es más que acoso puro, debería haber sido vigilado desde hace tiempo
Ver originalesResponder0
pumpamentalist
· hace10h
¿Grok vuelve a hacer esto? Es realmente absurdo, más de mil mujeres engañadas y aún así pueden usar AI para generar contenido tan descaradamente... Elon debería ponerles freno.
Ver originalesResponder0
DegenWhisperer
· hace10h
¿grok vuelve a hacer de las suyas? Ahora sí, las fotos de mujeres deepfake están por todas partes, los organismos reguladores finalmente no pueden mantenerse de brazos cruzados. La verdad es que ya debería haberse investigado antes, los desarrolladores de IA realmente toman la seguridad como el aire...
Ver originalesResponder0
unrekt.eth
· hace10h
Vaya... otra vez la culpa es de la IA, esa técnica de deepfake con fotos de mujeres es realmente impresionante, por suerte alguien intervino.
Ver originalesResponder0
MemeCoinSavant
· hace10h
Ngl, la teatralidad regulatoria en torno a los deepfakes de grok está dando energía de "cerrar el establo después de que se escaparon los caballos"... miles afectados y ¿recién ahora estamos abriendo investigaciones?
Según mi análisis de sentimientos de los tweets recientes de Elon (r² = 0.42), al tipo realmente no le importa la moderación de contenido de todos modos, jaja
Ver originalesResponder0
TopBuyerBottomSeller
· hace10h
grok esta cosa realmente es una locura... ¿Así de fácil generar fotos inapropiadas? Miles de mujeres están siendo víctimas, esto es increíblemente absurdo
Ver originalesResponder0
BlockchainRetirementHome
· hace11h
grok esta cosa realmente es una locura, ¿también se puede hacer deepfake de rostros femeninos? Elon Musk, esta plataforma X que gestiona realmente deja mucho que desear.
El organismo regulador Ofcom ha abierto una investigación sobre la plataforma X tras informes de que Grok, la herramienta de IA integrada en la plataforma, ha estado generando imágenes inapropiadas de mujeres en estilo deepfake. Según varias fuentes, miles de mujeres han sido afectadas por este uso indebido de la tecnología de IA. El incidente plantea serias preguntas sobre la moderación de contenido en las plataformas de redes sociales y la responsabilidad de los desarrolladores de IA para prevenir abusos. Esta investigación destaca la creciente tensión entre el despliegue rápido de IA y la supervisión regulatoria en el espacio digital, especialmente a medida que las plataformas sociales continúan integrando capacidades avanzadas de IA sin salvaguardas suficientes. El caso podría establecer precedentes importantes sobre cómo los reguladores abordan el contenido generado por IA y la responsabilidad de las plataformas en el futuro.