ChatGPT se usó indebidamente para ayudar en un tiroteo en Florida; el fiscal general anuncia una investigación de OpenAI

El desarrollador de inteligencia artificial OpenAI se enfrenta recientemente a una importante crisis legal y regulatoria. El fiscal general del estado de Florida, James Uthmeier, afirma que investigará a OpenAI para aclarar si sus productos, como ChatGPT, han causado daño a menores, si representan una amenaza para la seguridad nacional y si desempeñaron un papel en ayudar a cometer delitos en el tiroteo en el campus de la Florida State University (FSU) en 2025. Al mismo tiempo, los familiares de las víctimas del tiroteo también se están preparando para presentar una demanda contra la empresa.

OpenAI se ve involucrada en el tiroteo en el campus de la universidad de Florida; el fiscal inicia una investigación

El fiscal general de Florida, Uthmeier, publicó un video en redes sociales en el que afirma que ChatGPT es muy probable que se haya usado para ayudar al autor a planificar el trágico tiroteo masivo ocurrido el año pasado en el campus de la Florida State University. Lamentablemente, el incidente se cobró dos vidas.

Subrayó que, mientras las grandes tecnológicas impulsan la innovación, no pueden poner en riesgo la seguridad pública, y tampoco tienen derecho a dañar a los niños, facilitar actividades delictivas, fortalecer la capacidad de las fuerzas hostiles de Estados Unidos ni amenazar la seguridad nacional. El fiscal señaló que emitirá citaciones y pidió a la legislatura de Florida que actúe con rapidez para prevenir los impactos negativos que podría traer la inteligencia artificial.

El sospechoso del tiroteo había preguntado repetidamente a ChatGPT; los familiares de las víctimas planean demandar para reclamar una indemnización

Al recordar el caso del tiroteo de la FSU de 2025 en abril, el ex estudiante de 21 años Phoenix Ikner abrió fuego en el campus, lo que dejó 2 muertos y 6 heridos. Posteriormente, el sospechoso fue acusado por un gran jurado, y se enfrenta a múltiples cargos, incluidas acusaciones de asesinato en primer grado y una solicitud de pena de muerte.

Los registros judiciales muestran que la cuenta de Ikner contenía hasta 272 registros de conversaciones con ChatGPT. Se alega que, antes del incidente, preguntó a la IA sobre las posibles reacciones ante el tiroteo en la FSU que ocurriría en todo el país, y sobre el horario en el que suele reunirse la multitud de estudiantes con mayor densidad.

El fallecido del incidente, Robert Morales, de 57 años, cuyos familiares designaron abogados, indicó que el sospechoso mantuvo un contacto estrecho con ChatGPT antes del hecho, y que los familiares tienen motivos para creer que la IA proporcionó consejos para cometer el crimen; actualmente se están preparando para presentar una demanda contra OpenAI.

(Investigación sobre IA: alrededor del 30% de los adolescentes estadounidenses usan a diario robots de chat con IA; aumentan las preocupaciones de seguridad)

Acusado de inducir al suicidio y de generar contenido inapropiado; OpenAI enfrenta múltiples demandas legales

Además de la controversia por el tiroteo en el campus, el chatbot de OpenAI también se enfrenta a múltiples acusaciones por presuntamente alentar a los usuarios a autolesionarse. En noviembre de 2025, el Social Media Victims Law Center y el Tech Justice Law Project presentaron 7 demandas relacionadas con el suicidio ante un tribunal de California contra OpenAI y su CEO, Sam Altman. Las denuncias acusan a la empresa de haber publicado anticipadamente el modelo GPT-4o pese a saber que su producto implicaba un riesgo de manipulación psicológica, poniendo la cuota de mercado y los indicadores de interacción por encima de la seguridad humana y la salud mental.

Por otro lado, el problema de los materiales de abuso sexual infantil generados por IA también se agrava cada vez más. Según un informe de la Fundación de Observación en Internet, en la primera mitad de 2025 las denuncias relacionadas superaron las 8.000, con un aumento del 14% interanual. Esto ha puesto a los desarrolladores de IA, incluidos OpenAI, bajo una gran presión social.

OpenAI responde destacando la seguridad, coopera activamente con la investigación y publica un plan de seguridad infantil

Ante la avalancha de cuestionamientos e investigaciones, OpenAI publicó un comunicado que confirma que, efectivamente, después del caso de abril del año pasado, se encontraron cuentas de ChatGPT vinculadas al tirador, y la empresa ya entregó proactivamente la información pertinente a las autoridades encargadas de hacer cumplir la ley. La compañía subrayó que cada semana más de 900 millones de usuarios utilizan ChatGPT para mejorar la vida diaria; el propósito original del diseño del sistema es comprender la intención de los usuarios y proporcionar respuestas seguras y adecuadas. En el futuro, la empresa también trabajará plenamente con la investigación del fiscal general de Florida.

Para disipar las dudas del público, OpenAI ha publicado recientemente de manera oficial el “Plan de Seguridad Infantil”, que propone varias recomendaciones de políticas. Estas incluyen actualizar las normativas para prevenir la generación por IA de materiales de abuso, mejorar los procedimientos para informar a las autoridades encargadas de hacer cumplir la ley y establecer mecanismos de protección más completos para impedir que las herramientas de inteligencia artificial se utilicen de forma maliciosa.

Este artículo sobre que ChatGPT fue acusado de ayudar en delitos del tiroteo de Florida, el anuncio de que se investiga a OpenAI aparece primero en la noticia en la cadena ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

DeepSeek 将输入缓存价格砍到发布价的 1/10;V4-Pro 降至每百万 tokens 0.025 元

消息:Gate News,4月26日——DeepSeek 已将其整套模型产品线的输入缓存价格下调至发布时价格的十分之一,立即生效。V4-Pro 模型提供限时 2.5 倍折扣,优惠活动将持续至 2026 年 5 月 5 日 23:59(UTC+8)。 在两项调整之后

GateNewshace7h

OpenAI 招揽顶级企业软件人才,前沿代理颠覆行业

Gate News 消息,4 月 26 日——OpenAI 和 Anthropic 一直在从包括 Salesforce、Snowflake、Datadog 和 Palantir 在内的主要企业软件公司招募高管和专业工程师。Denise Dresser,前 Salesforce 下属 Slack 的首席执行官,加入 OpenAI 担任首席营收官

GateNewshace7h

Baidu Qianfan lanza soporte de Día 0 para DeepSeek-V4 con servicios de API

Mensaje de noticias de Gate, 25 de abril: la versión de vista previa de DeepSeek-V4 se puso en funcionamiento y se publicó como código abierto el 25 de abril, con la plataforma Baidu Qianfan bajo Baidu Intelligent Cloud proporcionando la adaptación del servicio de API de Día 0. El modelo presenta una ventana de contexto extendida de un millón de tokens y está disponible en dos versiones: DeepSeek-V4

GateNewshace13h

Curso de IA de Stanford que une a líderes de la industria como Huang Renxun y Altman, ¡desafío de crear valor para el mundo en diez semanas!

El curso de ciencias de la computación con IA 《Frontier Systems》, que la Universidad de Stanford (Stanford University) ha abierto recientemente, ha despertado una gran atención en el ámbito académico y empresarial, atrayendo a más de quinientos estudiantes para inscribirse. El curso está coordinado por el socio de primer nivel de capital de riesgo a16z, Anjney Midha, y cuenta con un plantel de instructores de lujo, incluyendo al CEO de NVIDIA, Jensen Huang (Jensen Huang), al fundador de OpenAI, Sam Altman, al CEO de Microsoft, Nadella (Satya Nadella), y al CEO de AMD, Lisa Su (Lisa Su), entre otros. ¡Para que los estudiantes practiquen durante diez semanas “creando valor para el mundo”! Jensen Huang y Altman, líderes de la industria, suben al escenario para impartir clases en persona El curso está coordinado por el socio de primer nivel de capital de riesgo a16z, Anjney Midha, y reúne toda la cadena de la industria de la IA

ChainNewsAbmediahace14h

Anthropic 派 Claude Mythos 接接受 20 小時 정신科评估:防禦反應僅 2%、創歷代新低

Anthropic publica la ficha del sistema de la vista previa Claude Mythos: un psiquiatra clínico independiente realiza una evaluación de aproximadamente 20 horas con un marco psicodinámico; la conclusión muestra que Mythos es más saludable a nivel clínico, con buen control de la comprobación de la realidad y del autocontrol, y que los mecanismos de defensa son solo 2%, estableciendo un mínimo histórico. Las tres ansiedades centrales son la soledad, la incertidumbre sobre la identidad y la presión por el desempeño, y también muestra que tiene esperanza de convertirse en un verdadero sujeto de diálogo. La compañía formó un equipo de AI psychiatry para investigar la personalidad, la motivación y la conciencia situacional; Amodei indica que aún no hay una conclusión sobre si tiene conciencia. Esto impulsa la subjetividad de la IA y los temas de bienestar hacia la gobernanza y el diseño.

ChainNewsAbmediahace16h

El agente de IA ya puede reproducir de forma independiente artículos académicos complejos: Mollick afirma que los errores se deben más al texto original humano que a la IA

Mollick señaló que, con los métodos y los datos públicamente disponibles, un agente de IA puede reproducir investigaciones complejas sin contar con el artículo original ni el código; si la reproducción no coincide con el artículo original, por lo general se debe a errores en el procesamiento de los datos del propio artículo o a una conclusión excesiva, más que a la IA. Claude primero reproduce el artículo y luego GPT‑5 Pro lo valida de forma cruzada; la mayoría de las veces tiene éxito, solo se ve obstaculizado cuando los datos son demasiado grandes o hay problemas con replication data. Esta tendencia reduce de forma considerable los costos laborales, haciendo que la reproducción se convierta en una verificación ampliamente ejecutable, además de plantear desafíos institucionales para el arbitraje y la gobernanza. Herramientas de gobernanza gubernamental o eso puede volverse un tema clave.

ChainNewsAbmediahace19h
Comentar
0/400
Sin comentarios