A inteligência artificial está a empurrar a verificação de informações digitais para territórios desconhecidos. Especialistas alertam para uma tendência preocupante: a crescente dificuldade em distinguir conteúdo visual autêntico de fabricado.



"Olhar para imagens ou vídeos em breve tornará-se um método de verificação pouco confiável," alertam os investigadores. "A tecnologia está a avançar tão rapidamente que já podemos estar no ponto em que a inspeção visual humana sozinha não consegue detectar deepfakes e conteúdos gerados por IA."

Isto não é apenas teórico. As implicações reverberam por toda a confiança digital—desde a autenticidade dos media até à integridade dos dados na cadeia. À medida que o conteúdo gerado por IA se torna cada vez mais sofisticado, toda a infraestrutura de como verificamos o que é real enfrenta uma pressão sem precedentes. A questão não é apenas *se* a deteção se torna impossível, mas se já ultrapassámos esse limiar.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)