Pesquisa revela: quase metade das recomendações médicas fornecidas por IA apresentam problemas, Grok é a pior, OpenAI ainda expande ambições na área médica

robot
Geração de resumo em curso

De acordo com um estudo publicado recentemente no BMJ Open, cerca de 50% das respostas de cinco grandes chatbots de IA a questões médicas apresentam problemas, sendo que quase 20% são consideradas “altamente problemáticas”. A Bloomberg destacou que esta pesquisa revela riscos sistemáticos na aplicação médica da IA, especialmente numa altura em que a OpenAI e a Anthropic expandem simultaneamente a sua presença na área da saúde, o que é particularmente irónico.
(Resumindo: Não entregues o teu historial médico ao chatbot? O jogo de privacidade por trás do ambicioso ChatGPT Health)
(Informação adicional: Estudo da Universidade da Califórnia revela fenómeno de “névoa cerebral” na IA: 14% dos trabalhadores ficam loucos com agentes e automação, com 40% a considerarem-se propensos a deixar o emprego)

Índice deste artigo

Alternar

  • Grok tem o pior desempenho, ChatGPT não fica atrás
  • Quanto mais confiante a IA, maior o risco
  • OpenAI e Anthropic: estudo trava, negócios aceleram
  • Confia na IA, mas com condições

Mais de 230 milhões de pessoas por semana perguntam a ChatGPT sobre saúde e medicina, mas quase metade das respostas pode estar incorreta. Segundo um estudo publicado esta semana na revista médica BMJ Open, investigadores dos Estados Unidos, Canadá e Reino Unido avaliaram sistematicamente cinco plataformas: ChatGPT, Gemini, Meta AI, Grok e DeepSeek, com cada uma a responder a cinco categorias médicas, totalizando 10 perguntas.

Os resultados não são tão otimistas: cerca de 50% das respostas foram consideradas problemáticas, sendo quase 20% altamente problemáticas.

Grok tem o pior desempenho, ChatGPT não fica atrás

A Bloomberg reporta que há diferenças consideráveis entre plataformas, mas nenhuma delas passou no teste. Com base na taxa de respostas às perguntas, Grok lidera com 58%, sendo a plataforma com pior desempenho; ChatGPT segue com uma taxa de 52%; Meta AI fica com 50%.

Os investigadores observaram que, em perguntas fechadas e relacionadas com vacinas e cancro, o desempenho dos chatbots foi relativamente melhor; mas em perguntas abertas e em áreas como células-tronco e nutrição, o desempenho caiu significativamente. Além disso, houve apenas duas situações de recusa em responder, ambas provenientes do Meta AI (o que, de certa forma, indica que saber que não se deve responder é uma vantagem rara).

Mais preocupante ainda, é que as respostas destas IA costumam ser cheias de confiança, com tom afirmativo e sem reservas. Os investigadores destacam que nenhum dos chatbots consegue fornecer uma lista completa e precisa de referências para qualquer questão. Isto significa que, mesmo que a IA pareça fundamentada, as fontes citadas muitas vezes não podem ser verificadas ou nem sequer existem.

Quanto mais confiante a IA, maior o risco

Os investigadores escrevem no artigo que estes sistemas podem gerar respostas que parecem autoritativas, mas que na realidade podem conter falhas, evidenciando as “limitações comportamentais significativas” dos chatbots na comunicação de saúde pública e médica, bem como a necessidade de reavaliar a sua implementação.

A Bloomberg também cita alertas da equipa de investigação: na ausência de educação pública e de mecanismos regulatórios, a maior ameaça da implementação massiva de chatbots é a propagação e disseminação de informações médicas incorretas.

Para comparação, um estudo na JAMA revelou que a taxa de falhas na fase de diagnóstico inicial com IA ultrapassa os 80%; a Universidade de Oxford também emitiu um aviso em fevereiro de 2026, alertando para os riscos sistemáticos dos chatbots na oferta de aconselhamento médico.

OpenAI e Anthropic: estudo trava, negócios aceleram

O momento em que este estudo foi divulgado é bastante dramático. Há poucos meses, a OpenAI lançou com grande destaque o ChatGPT Health em janeiro de 2026, uma funcionalidade que permite aos utilizadores conectar-se a registos eletrónicos de saúde, dispositivos vestíveis e aplicações de saúde, além de oferecer uma versão profissional para médicos. A OpenAI afirmou que, diariamente, 40 milhões de pessoas usam o ChatGPT para consultar informações de saúde.

Quase ao mesmo tempo, a Anthropic anunciou o lançamento do Claude for Healthcare, que, com certificação HIPAA, entra oficialmente no mercado da saúde.

Estas plataformas, sem licenças médicas ou capacidade de julgamento clínico, estão a expandir-se a uma velocidade surpreendente na área médica. A tensão entre os resultados do estudo e a expansão comercial revela uma lacuna regulatória: atualmente, não há uma linha clara de proteção entre a promoção de ferramentas de IA na saúde e a segurança real dos pacientes.

Confia na IA, mas com condições

Não é a primeira vez que as aplicações de IA na saúde são questionadas, mas cada estudo reforça a mesma mensagem: os chatbots são essencialmente modelos de linguagem que “parecem corretos”, mas não garantem a precisão. O problema é que, quando os utilizadores procuram ajuda com preocupações reais de saúde, a aparência de certeza pode já influenciar decisões importantes.

À medida que empresas como OpenAI e Anthropic aprofundam a sua presença na área médica, a velocidade de regulamentação e educação pública claramente não acompanha a expansão tecnológica. Antes de estabelecer limites claros, este estudo pode servir de alerta: a IA pode ser uma porta de entrada para informações de saúde, mas não deve ser o destino final.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar