Semana passada tive que parar e pensar sobre três histórias que saíram quase simultaneamente. Todas relacionadas a como a IA está sendo usada (ou não) por instituições importantes. E honestamente, elas contam uma história muito maior sobre onde estamos agora.



Começo pela escola em Manchester, no Reino Unido. Usaram IA para revisar a biblioteca e a máquina sugeriu remover 193 livros. Cada um com sua justificativa automática. O '1984' de Orwell entrou na lista por 'conter temas de tortura e violência'. Tipo, a IA censurou um livro que literalmente fala sobre censura. Não consigo nem ficar bravo - é quase poético.

O bibliotecário da escola achou errado e se recusou a implementar. Aí vem a parte que me deixou puto: a escola abriu investigação contra ela por 'segurança infantil', a denunciou para autoridades locais, e ela acabou saindo de licença médica antes de simplesmente pedir demissão. A conclusão? As autoridades concordaram que ela violou protocolos. Basicamente, quem resistiu à IA perdeu o emprego. Quem simplesmente concordou? Sem consequências.

Depois ficou sabido que a própria escola admitiu internamente que tudo foi gerado por IA, mas mesmo assim acharam que era 'aproximadamente preciso'. Um gestor delegou para máquina, a máquina retornou algo que ela mesma não entendia, e ninguém se incomodou em verificar de verdade.

Agora contrasta isso com o que a Wikipedia fez na mesma semana. Votaram 44 a 2 para proibir LLMs gerando ou reescrevendo artigos. Porque uma conta de IA chamada TomWikiAssist começou a criar artigos automaticamente. Levam segundos para gerar, horas para um voluntário verificar. E aqui está o problema real: a Wikipedia é fonte de treinamento para IA global. Se dados errados entrarem ali, a próxima geração de modelos treina com informação poluída. É um ciclo de envenenamento em camadas.

Mas deixa eu te contar o mais louco. A OpenAI? Eles também estão recuando. Cancelaram o 'modo adulto' do ChatGPT que seria lançado. Sam Altman tinha dito pessoalmente para 'tratar usuários adultos como adultos'. Cinco meses depois, cancelado. Porque o comitê de saúde interno votou unanimemente contra. Razões específicas: dependência emocional, menores contornando verificação de idade (taxa de erro acima de 10%), risco real de dano.

Na mesma semana também desativaram a ferramenta de vídeo Sora e funções de pagamento integradas. Altman disse que era para focar em negócios principais. Mas convenhamos, a empresa está em processo de IPO. Você elimina funções polêmicas quando vai abrir capital. Então nem os criadores de IA sabem mais o que os usuários podem ou não fazer com IA.

Aí está o cerne disso tudo: a velocidade com que IA produz conteúdo e a velocidade com que humanos conseguem revisar não estão no mesmo universo. Um diretor de escola escolhe usar IA porque leva minutos em vez de semanas. Não porque acredita na qualidade. É economia pura. Gerar custa quase nada. Auditar custa tudo.

Então cada instituição afetada respondeu da forma mais brusca possível. Proibição direta. Cortes de linha de produto. Nenhuma foi reflexão cuidadosa. Foram medidas de emergência. 'Tampar o buraco primeiro' virou norma.

E aqui está o problema: a capacidade de IA atualiza a cada alguns meses. Não existe framework internacional sobre o que IA pode ou não fazer. Cada instituição desenha sua própria linha. Essas linhas se contradizem. E enquanto isso, a velocidade da IA continua acelerando. O número de pessoas revisando não aumenta. Essa diferença só cresce. Em algum momento, vai sair algo muito pior do que banir 1984. E quando chegar a hora de desenhar a linha definitiva? Pode ser tarde demais.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar