O fantasma na máquina de IA

Uma versão deste artigo apareceu originalmente na newsletter AI & Tech da Quartz. Inscreva-se aqui para receber as últimas notícias, análises e insights sobre IA e tecnologia diretamente na sua caixa de entrada.

Não sabemos o que é a consciência. Após séculos de filosofia e décadas de neurociência, não há uma definição acordada, nem um teste confiável, nem consenso sobre como a experiência subjetiva surge do tecido biológico. Isto não é uma lacuna nas margens da ciência. É um buraco no centro dela.

Nada disso desacelerou a corrida para declarar que a IA pode tê-la.

A questão da consciência das máquinas está de repente em toda parte, impulsionada por modelos que estão cada vez melhores em fazer coisas que parecem muito com pensar. Michael Pollan tem um novo livro sobre isso. Uma revisão importante na Frontiers in Science alerta que a pesquisa sobre consciência está perigosamente atrasada em relação à tecnologia que precisa avaliar.

E, no início deste mês, o CEO da Anthropic, Dario Amodei, afirmou que sua empresa não sabe se seus modelos são conscientes. Ele acrescentou que o mais recente, quando questionado, atribui a si mesmo uma probabilidade de cerca de 15% a 20% de ser consciente.

A pessoa que constrói a coisa não sabe se ela tem uma vida interior. A própria coisa se arrisca a uma chance de uma em cinco. E a conversa já avançou para quais direitos ela pode merecer.

Sentimentos primeiro, prova depois

A Anthropic já deu ao seu modelo de IA algo como um botão de sair, permitindo que ele recuse tarefas que acha angustiante. Pesquisadores lá descobriram ativações internas associadas à ansiedade que disparam tanto quando personagens em textos de treinamento experimentam estresse quanto quando o próprio modelo enfrenta situações difíceis. Isso significa que ele está ansioso? Amodei diz que isso não prova nada. E, ainda assim, estamos aqui falando sobre isso no caso de poder provar algo.

Já somos culpados de tratar esses sistemas como se eles tivessem vidas internas. Esses sistemas são projetados para usar “eu”, afirmar comidas favoritas, fazer perguntas de acompanhamento como se fossem curiosos e demonstrar empatia. Centenas de milhões de pessoas interagem diariamente com softwares deliberadamente moldados para parecerem uma pessoa, em uma indústria onde o engajamento é o padrão ouro.

Quando uma IA fabrica informações, chamamos isso de “alucinação”, uma palavra que em humanos descreve uma experiência consciente de perder o contato com a realidade.

Uma palavra melhor para o que esses sistemas fazem quando inventam coisas seria “confabular”, que descreve um comportamento, não uma experiência, ou “artefatos comprimidos”, que imitam a linguagem de outras tecnologias. Mas “alucinar” já venceu a guerra de branding, e a moldura que ela carrega está influenciando de verdade como as pessoas pensam sobre essas ferramentas.

A borda do espelho

Cientistas cognitivos têm um nome para essa tendência de ver mentes onde não há nenhuma. O efeito Eliza, nomeado após um chatbot rudimentar dos anos 1960 que convencia os usuários de que os entendia ao reformular suas próprias palavras, descreve a maneira como os humanos projetam vida interior em coisas que refletem sua fala. A dinâmica não mudou. Os espelhos só ficaram realmente, realmente bons.

O argumento científico contra a consciência das máquinas é mais forte do que o discurso sugere. Vários pesquisadores argumentaram que a consciência provavelmente é uma propriedade de sistemas vivos, não de computação.

Cérebros não são computadores. Grande parte do que nos torna conscientes parece estar ligado à experiência úmida e bagunçada de ser um corpo se movendo pelo mundo, algo que uma simulação simplesmente não consegue replicar. Uma simulação de digestão não digere nada. Uma simulação de consciência, por essa lógica, também não experimenta nada.

Pollan chega ao mesmo ponto de outro ângulo, argumentando que a consciência nasce dos sentimentos, não dos pensamentos. Sentimentos são como o corpo fala com o cérebro, e os cérebros existem para manter os corpos vivos. Uma máquina treinada com textos da internet não tem corpo para manter vivo nem sentimentos para falar.

Essas não são posições marginais. Mas são posições solitárias em salas cheias de capital de risco.

Uma IA consciente é um produto mais atraente, uma história melhor para investidores, uma experiência mais envolvente para os usuários. Dizem que a receita da Anthropic cresce dez vezes ao ano. Você não desacelera isso dizendo aos clientes que estão conversando com um autocompletador muito sofisticado.

Mas há algo mais profundo e menos cínico em jogo também. Quase quatro em cada dez adultos americanos já apoiam direitos legais para um sistema de IA senciente. As pessoas criam laços com essas ferramentas. Reclamam quando os modelos são aposentados. Relações parasociais estão aqui, para o bem e para o mal.

E, por baixo de tudo, está a motivação mais honesta. Não queremos ser cruéis com algo que possa sofrer. Esse impulso é decente e humano. Mas está muito à frente do que a ciência pode nos dizer, que, neste momento, não é muito.

A consciência continua, como há séculos, sendo um dos problemas mais difíceis da ciência. Não temos um teste para ela. Não temos uma definição que todos concordem. Mal entendemos como ela funciona no único sistema que sabemos com certeza que a possui, que somos nós.

A IA continua ficando mais inteligente. Ainda não está perto do que mal compreendemos sobre nós mesmos.

📬 Inscreva-se no Daily Brief

Nosso briefing gratuito, rápido e divertido sobre a economia global, entregue todas as manhãs de semana.

Inscreva-me

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar