A ChatGPT foi utilizada para ajudar um crime no tiroteio na Flórida, e o procurador-geral anuncia uma investigação à OpenAI

O fornecedor de inteligência artificial OpenAI enfrenta recentemente uma importante crise legal e regulatória. O procurador-geral do estado da Flórida, James Uthmeier, afirmou que vai abrir uma investigação à OpenAI, para esclarecer se os seus produtos, incluindo o ChatGPT, causam danos a menores, ameaçam a segurança nacional e se desempenharam um papel na assistência ao crime no caso do tiroteio no campus da Florida State University (FSU) em 2025. Em paralelo, os familiares das vítimas do tiroteio estão também a preparar-se para avançar com uma acção judicial contra a empresa.

OpenAI envolvida no caso de tiroteio no campus da universidade da Flórida; o procurador-geral inicia uma investigação

O procurador-geral da Flórida, Uthmeier, divulgou um vídeo nas redes sociais, dizendo que o ChatGPT é muito provavelmente utilizado para ajudar o autor do crime a planear o grande tiroteio ocorrido no ano passado no campus da Florida State University, na Flórida, que infelizmente ceifou duas vidas.

Ele salientou que, enquanto os gigantes da tecnologia impulsionam a inovação, não podem colocar a segurança do público em risco, nem têm o direito de prejudicar crianças, facilitar actividades criminosas, reforçar a força de forças hostis dos EUA, ou ameaçar a segurança nacional. O procurador-geral afirmou que vai emitir intimações e apelou ao poder legislativo da Flórida para tomar medidas rapidamente, a fim de prevenir os impactos negativos trazidos pela inteligência artificial.

O suspeito do tiroteio teria perguntado repetidamente ao ChatGPT; os familiares das vítimas pretendem processar

Ao recordar o caso do tiroteio na FSU em Abril de 2025, o antigo estudante de 21 anos Phoenix Ikner disparou no campus, causando 2 mortes e 6 feridos; posteriormente, o suspeito foi acusado por um grande júri, enfrentando várias acusações, incluindo homicídio em primeiro grau, e um pedido de pena de morte.

Os registos do tribunal mostram que a conta de Ikner tinha até 272 registos de conversas com o ChatGPT. Alega-se que, antes do incidente, ele tinha perguntado à IA sobre as reacções que poderiam surgir em todo o país ao tiroteio na FSU e sobre a hora do dia em que as multidões de estudantes no local mais movimentado seriam mais densas.

Entre as vítimas que morreram no incidente estava o falecido Robert Morales, de 57 anos. O advogado por ele mandatado indicou que o suspeito manteve um contacto estreito com o ChatGPT antes do caso e que a família tem razões para acreditar que a IA forneceu conselhos para a prática do crime; neste momento, está a preparar-se para processar a OpenAI.

(Investigação em inteligência artificial: cerca de 30% dos adolescentes norte-americanos usam diariamente chatbots de IA; as preocupações com a segurança aumentam)

Acusada de induzir suicídio e gerar conteúdos inadequados, a OpenAI enfrenta vários processos legais

Além da polémica do caso do tiroteio no campus, o chatbot da OpenAI também enfrenta várias acusações por alegadamente incentivar os utilizadores a autoagredir-se. Em Novembro de 2025, o Social Media Victims Law Center e o Tech Justice Law Project, num tribunal da Califórnia, intentaram 7 processos relacionados com suicídio contra a OpenAI e o seu CEO, Sam Altman. A petição acusa a empresa de, apesar de saber que o produto tinha riscos de manipulação psicológica, ter lançado antecipadamente o modelo GPT-4o, colocando a quota de mercado e as métricas de interacção acima da segurança humana e da saúde mental.

Por outro lado, o problema dos materiais de abuso sexual infantil gerados por IA tem vindo a agravar-se. De acordo com um relatório da Internet Observations Foundation, no primeiro semestre de 2025 foram registadas mais de 8.000 notificações, o que representa um aumento anual de 14%; isto coloca os criadores de IA, incluindo a OpenAI, sob uma enorme pressão social.

A OpenAI responde, sublinhando a segurança, cooperando activamente com a investigação e publicando um plano de segurança para crianças

Perante a enxurrada de críticas e investigações, a OpenAI publicou um comunicado que confirma que, de facto, descobriu, após o caso de Abril do ano passado, contas do ChatGPT associadas ao atirador e já forneceu atempadamente as informações relevantes às autoridades responsáveis pela aplicação da lei. A empresa sublinhou que mais de 900 milhões de utilizadores utilizam o ChatGPT semanalmente para melhorar a vida quotidiana; a intenção original do sistema é compreender as intenções dos utilizadores e fornecer respostas seguras e adequadas, e no futuro também irá colaborar plenamente com a investigação do procurador-geral da Flórida.

Para acalmar as dúvidas do público, a OpenAI publicou recentemente, de forma oficial, o “Plano de Segurança para Crianças”, apresentando várias propostas de políticas, incluindo a actualização de regulamentos para prevenir conteúdos de abuso gerados por IA, a melhoria dos procedimentos de comunicação às autoridades responsáveis pela aplicação da lei e o estabelecimento de mecanismos de protecção mais completos, com o objectivo de evitar que ferramentas de inteligência artificial sejam abusadas maliciosamente.

Este artigo, “O ChatGPT é acusado de ajudar a cometer crimes no tiroteio na Flórida”, foi publicado inicialmente em Cadeia Notícias ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

O Governo Trump anunciou um plano de combate à extração de IA, acusando as empresas chinesas de roubo sistemático das capacidades dos modelos

O Gabinete de Política Tecnológica da Casa Branca (OSTP), o assessor presidencial Michael J. Kratsios, emitiu, a 23 de abril, um comunicado oficial, afirmando que a administração Trump tem informação, indicando que entidades estrangeiras (principalmente na China) estão a visar deliberadamente grandes empresas de IA dos EUA, através da extração sistemática de capacidades dos modelos de IA dos EUA por meio de “dezenas de milhares de contas de agentes” e sistemas de tecnologia de jailbreaking, e divulgando em simultâneo quatro medidas de resposta.

MarketWhisper19m atrás

A DeepSeek lançou uma pré-visualização de código aberto da V4, com uma pontuação técnica de 3206, superando o GPT-5.4

A DeepSeek lançou oficialmente a série de pré-visualização V4 em 24 de abril, com código aberto sob a licença MIT, e os pesos do modelo foram disponibilizados na Hugging Face e na ModelScope. De acordo com o relatório técnico da DeepSeek V4, o V4-Pro-Max (modo de máxima força de inferência) obteve 3206 pontos no benchmark do Codeforces, ultrapassando o GPT-5.4.

MarketWhisper35m atrás

Cambricon Conclui a Adaptação Day 0 do DeepSeek-V4, Marco para o Ecossistema de Chips de IA da China

Mensagem do Gate News, 24 de Abril — A Cambricon anunciou hoje que concluiu a adaptação Day 0 do DeepSeek-V4, o mais recente modelo de linguagem grande da DeepSeek, utilizando o seu ecossistema proprietário de software NeuWare e o framework vLLM. O código de adaptação foi simultaneamente disponibilizado como open-source, assinalando o

GateNews51m atrás

A Tencent disponibiliza como open source o Hy3 (versão de pré-visualização), com testes de referência do código melhorados em 40% face à geração anterior

A Tencent abriu oficialmente em código aberto o modelo linguístico de grande dimensão Hy3 em versão de pré-visualização a 23 de abril nas plataformas GitHub, Hugging Face e ModelScope, e disponibilizou em simultâneo um serviço de APIs pagas no seu serviço de nuvem (Tencent Cloud). Segundo a Decrypt, a 24 de abril, a versão de pré-visualização Hy3 iniciou o treino em finais de janeiro e, aquando do calendário de publicação, tinha menos de três meses.

MarketWhisper58m atrás

Investimentos da Carteira da FTX no Valor de 158 biliões Won se não tivesse falido

FTX, a bolsa centralizada de criptomoedas que pediu proteção contra falência ao abrigo do Capítulo 11 em novembro de 2022 devido a escassez de liquidez e saídas de capital, teria mantido investimentos avaliados em aproximadamente 158.796 biliões de won se não tivesse entrado em colapso, de acordo com uma análise citada por Park

CryptoFrontier1h atrás

A Xiaomi revela detalhes do treino do MiMo-V2-Pro: parâmetros do modelo 1T, milhares de GPUs implementadas

Mensagem do Gate News, 24 de Abril — A responsável da equipa de modelos de linguagem da Xiaomi, Luo Fuli, revelou numa entrevista aprofundada que o modelo MiMo-V2-Pro tem, no total, 1 bilião de parâmetros e que foram necessários milhares de GPUs para o treino. Ela referiu que a escala de 1T representa o limiar mínimo para obter

GateNews1h atrás
Comentar
0/400
Nenhum comentário