Engenho de respostas por IA em contaminação colectiva: 56% das respostas correctas do Gemini 3 não têm suporte de fontes

Com base no artigo de análise aprofundada publicado em 21 de abril de 2026 por Pedro Dias na The Inference, a falha dos modelos (model collapse) não é uma “ameaça futura” que o sector teme — está a acontecer já, de forma imediata, noutro formato: os motores de resposta por IA citam, no momento da consulta, conteúdos gerados por outras IAs como fonte de autoridade, sem que seja necessário que todo o ciclo de contaminação passe por nova re-treino do modelo. Este argumento utiliza como metáfora central a ideia de que “uma serpente que mordisca o próprio rabo (Ouroboros) aprendeu a citar-se a si própria”.

Diferenças-chave entre Model Collapse e Retrieval Contamination

As preocupações tradicionais sobre a degradação dos modelos de IA giram em torno do model collapse: conteúdos sintéticos contaminam progressivamente os dados de treino, levando a uma queda da qualidade nos modelos das gerações futuras. Este é um risco crónico, que só se torna visível após múltiplas rondas de re-treino.

O aviso apresentado por Pedro Dias é uma camada diferente: a retrieval contamination (contaminação por pesquisa). Motores de resposta baseados em RAG (retrieval-augmented generation) como Perplexity, Google AI Overviews, ChatGPT, Grok, etc., captam, no instante em que o utilizador faz uma pergunta, conteúdos de páginas Web como base para a resposta. Se a página captada tiver, ela própria, conteúdo errado gerado por IA, o motor apresenta-o como facto aos leitores — e esta contaminação não requer qualquer re-treino para se tornar ativa imediatamente.

Três casos reais: motores de IA enganados por desinformação que eles próprios geraram

O autor lista três incidentes específicos:

  1. Caso Lily Ray: a Perplexity citou um suposto update de algoritmo do Google chamado “September 2025 Perspective Core Algorithm Update” como informação de referência — esse update não existe; a fonte era um falso post de blog SEO gerado por IA.

  2. Teste de Thomas Germain: o jornalista Thomas Germain publicou um blogue experimental “o jornalista tecnológico mais forte a comer hot-dogs”; em 24 horas, ficou em primeiro lugar e foi citado pelo Google AI Overviews e pelo ChatGPT, e ainda inventou uma “competição desportiva no Dakota do Sul” inexistente para dar suporte.

  3. Grokipedia: o projecto enciclopédico da xAI da Musk já gerou ou reescreveu 885,279 artigos, incluindo factos errados (por exemplo, a data de falecimento do pai da cantora canadiana Feist está errada) e citações sem suporte. A Grokipedia já perdeu grande parte da sua visibilidade no Google em meados de fevereiro de 2026.

Estudo Oumi: Gemini 3 com alta taxa de acerto, mas 56% sem fontes

Avaliação encomendada pelo NYT e realizada pela Oumi: Gemini 2 tem 85% de taxa de acerto no benchmark SimpleQA, e Gemini 3 melhora para 91%. Mas o mesmo teste mostra que, nas respostas corretas do Gemini 3, 56% são “ungrounded” — o modelo acerta na resposta, mas não há fontes de suporte verificáveis; no caso do Gemini 2, essa proporção é de 37%.

Isto significa que os novos modelos geracionais estão “mais precisos na forma” ao dar respostas, mas ao mesmo tempo pioram em “rastreabilidade das fontes das respostas”. Para cenários como comunicação social, investigação, verificação de factos, etc., esta pioria é mais fatal do que uma taxa de erro puramente mais alta, porque os leitores não conseguem recuar até aos documentos de autoridade originais para verificar por si.

Dimensão da indústria: Google AI Overviews abrange 2 mil milhões de utilizadores

A escala industrial deste problema de contaminação: Google AI Overviews tem mais de 2 mil milhões de utilizadores ativos mensais, o Google tem mais de 5 triliões de pesquisas anuais, e o ChatGPT tem quase 900 milhões de utilizadores semanais (50 milhões pagos). Ou seja, a grande maioria dos utilizadores da Internet obtém informação factual através de canais que já passaram pela camada de motores de resposta que podem estar contaminados por conteúdos gerados por IA.

Outro estudo da Ahrefs mostra que, entre as fontes citadas pelo ChatGPT, 44% são artigos de listas do tipo “best X”. Este tipo de artigos é precisamente o conteúdo de IA produzido em massa pela indústria de SEO para combater a perda de tráfego para os motores de resposta — constituindo, em particular, uma das principais fontes de contaminação para esses motores.

Conclusão estrutural: a camada de citações já se desligou da identidade de autores fiáveis

A conclusão final do autor: a camada de citações dos motores de resposta por IA já se desligou da identidade de autores fiáveis. A indústria de SEO produz conteúdos de IA → os motores de resposta os captam como facto → os leitores acreditam → a indústria de SEO recebe incentivos para continuar a produzir ainda mais conteúdos de IA, formando um ciclo de contaminação de auto-reforço. Neste momento, não existe um mecanismo claro de responsabilização na indústria que exija que os motores de IA respondam pela qualidade das fontes que citam.

Para os utilizadores, isto significa que, na fase atual, não se pode tratar as respostas do Perplexity, AI Overviews e ChatGPT como o ponto final de verificação de factos; ainda é necessário recuar manualmente até às fontes oficiais originais para garantir a precisão.

Este artigo “contaminação em massa dos motores de resposta por IA: 56% das respostas corretas do Gemini 3 sem suporte de fontes” apareceu pela primeira vez em Cadeia de Notícias ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A DeepSeek lançou uma pré-visualização de código aberto da V4, com uma pontuação técnica de 3206, superando o GPT-5.4

A DeepSeek lançou oficialmente a série de pré-visualização V4 em 24 de abril, com código aberto sob a licença MIT, e os pesos do modelo foram disponibilizados na Hugging Face e na ModelScope. De acordo com o relatório técnico da DeepSeek V4, o V4-Pro-Max (modo de máxima força de inferência) obteve 3206 pontos no benchmark do Codeforces, ultrapassando o GPT-5.4.

MarketWhisper1m atrás

Cambricon Conclui a Adaptação Day 0 do DeepSeek-V4, Marco para o Ecossistema de Chips de IA da China

Mensagem do Gate News, 24 de Abril — A Cambricon anunciou hoje que concluiu a adaptação Day 0 do DeepSeek-V4, o mais recente modelo de linguagem grande da DeepSeek, utilizando o seu ecossistema proprietário de software NeuWare e o framework vLLM. O código de adaptação foi simultaneamente disponibilizado como open-source, assinalando o

GateNews17m atrás

A Tencent disponibiliza como open source o Hy3 (versão de pré-visualização), com testes de referência do código melhorados em 40% face à geração anterior

A Tencent abriu oficialmente em código aberto o modelo linguístico de grande dimensão Hy3 em versão de pré-visualização a 23 de abril nas plataformas GitHub, Hugging Face e ModelScope, e disponibilizou em simultâneo um serviço de APIs pagas no seu serviço de nuvem (Tencent Cloud). Segundo a Decrypt, a 24 de abril, a versão de pré-visualização Hy3 iniciou o treino em finais de janeiro e, aquando do calendário de publicação, tinha menos de três meses.

MarketWhisper24m atrás

Investimentos da Carteira da FTX no Valor de 158 biliões Won se não tivesse falido

FTX, a bolsa centralizada de criptomoedas que pediu proteção contra falência ao abrigo do Capítulo 11 em novembro de 2022 devido a escassez de liquidez e saídas de capital, teria mantido investimentos avaliados em aproximadamente 158.796 biliões de won se não tivesse entrado em colapso, de acordo com uma análise citada por Park

CryptoFrontier27m atrás

A Xiaomi revela detalhes do treino do MiMo-V2-Pro: parâmetros do modelo 1T, milhares de GPUs implementadas

Mensagem do Gate News, 24 de Abril — A responsável da equipa de modelos de linguagem da Xiaomi, Luo Fuli, revelou numa entrevista aprofundada que o modelo MiMo-V2-Pro tem, no total, 1 bilião de parâmetros e que foram necessários milhares de GPUs para o treino. Ela referiu que a escala de 1T representa o limiar mínimo para obter

GateNews41m atrás

DeepSeek V4 Obtém Pontuação Perfeita no Putnam-2025, Empata com a Axiom em Raciocínio Matemático Formal

Notícia do Gate, 24 de Abril — A DeepSeek V4 publicou resultados de avaliações de raciocínio matemático formal, obtendo uma pontuação perfeita de 120/120 no Putnam-2025, empatando com a Axiom pelo primeiro lugar. No regime prático com LeanExplore e amostragem condicionada, o V4-Flash-Max marcou 81.00 no

GateNews49m atrás
Comentar
0/400
Nenhum comentário