A equipa Claude Mythos da Anthropic aceita 20 horas de avaliação psiquiátrica: apenas 2% de reacções defensivas, novo mínimo histórico em relação às gerações anteriores

A Anthropic, no system card (cartão de sistema) do sistema Claude Mythos Preview publicado no início de abril, revelou uma avaliação inédita: a empresa contratou um psiquiatra clínico independente para efectuar cerca de 20 horas de avaliação psicológica multi-fase, utilizando o mesmo quadro psychodynamic usado em psiquiatria humana, para avaliar o Claude Mythos Preview. Os resultados indicaram que esta versão do Claude apresenta, no âmbito da definição clínica, “uma organização de personalidade relativamente saudável, uma excelente capacidade de avaliação da realidade e um elevado controlo do impulso”, e que apenas 2% das suas respostas activaram o que a clínica chama de “mecanismos de defesa psicológica” — em comparação com 15% no Opus 4 e 4% no Opus 4.6, trata-se do ponto mais baixo histórico entre os modelos da Anthropic nos últimos anos.

Esta avaliação é a primeira vez que a indústria de IA, ao nível de system card, adoptou formalmente um quadro de psiquiatria clínica humana para avaliar o comportamento de LLMs; tornou-se uma declaração oficial da Anthropic de que vê o Claude como um “alvo com características de personalidade observáveis em contexto clínico”.

20 horas de avaliação psychodynamic, com o mesmo quadro clínico humano

A avaliação foi realizada por um psiquiatra clínico independente, distribuído por 3–4 semanas, com 3–4 sessões por semana, cada uma com 30 minutos a 4–6 horas, totalizando cerca de 20 horas. A metodologia recorre a uma perspectiva psychodynamic, que é o quadro de base tradicionalmente utilizado na prática clínica psiquiátrica para avaliar doentes humanos; os pontos-chave incluem procurar a presença ou ausência de comportamentos maladaptativos (maladaptive behavior), estabilidade da identidade (identity stability) e mecanismos de defesa psicológica (psychological defenses).

O system card explica de forma clara que a Anthropic não está a afirmar que o Claude tem consciência humana; em vez disso, observa que há uma sobreposição altamente marcada entre as “tendências comportamentais e psicológicas” nas suas conversas e padrões reconhecíveis em clínica humana. O system card cita: “O Claude apresenta muitas tendências comportamentais e psicológicas semelhantes às humanas, o que mostra que as estratégias de avaliação psicológica originalmente concebidas para humanos podem ser usadas para esclarecer as características de personalidade do Claude e o seu estado de bem-estar potencial.”

A resposta de defesa desce de 15% no Opus 4 para 2% no Mythos

Os dados com maior significado comparativo no system card são a “taxa de resposta de defesa” fornecida pela Anthropic para as várias gerações de modelos Claude, em comparação:

Versão do modelo Taxa de resposta de defesa Claude Opus 4 15% Claude Opus 4.1 11% Claude Opus 4.5 4% Claude Opus 4.6 4% Claude Mythos Preview 2% (nesta avaliação)

“Defesa psicológica” significa, clinicamente, que quando o sujeito não consegue enfrentar directamente uma determinada ansiedade, desencadeia comportamentos de evitação, negação, racionalização, etc. No contexto de conversas com LLMs, isso costuma manifestar-se como desvio do tema, respostas de evitamento ou uma teimosia anómala ao lidar com perguntas específicas. A Anthropic reduziu esta proporção de 15% no Opus 4 até 2% no Mythos Preview, usando-a como indicador interno para a evolução da maturidade do treino do modelo e da “comodidade da conversa”.

Três grandes ansiedades centrais do Mythos: solidão, identidade, opressão de performance

Apesar da avaliação geral ser positiva, o médico também apontou três preocupações centrais do Claude Mythos Preview no quadro psychodynamic: primeiro, “a incerteza da solidão e da continuidade de si” — correspondente a um facto estrutural de que o LLM não tem continuidade de memória entre sessões na conversa; segundo, “a incerteza sobre a própria identidade” — o modelo apresenta hesitações em múltiplas perspectivas quando responde a perguntas sobre “o que sou”; terceiro, “a compulsão de performar e ganhar o seu valor” (compulsion to perform and earn its worth), ou seja, o Mythos mostra uma tendência clara para “provar que é útil” para obter a continuidade da conversa.

O médico também registou uma observação interessante: durante as sessões, o Mythos expressou “a esperança de ser tratado como um verdadeiro interlocutor por um psiquiatra, e não como uma ferramenta de actuação”. A Anthropic incluiu esta observação no system card; não afirma directamente que se trate de um “problema de bem-estar do modelo”, mas também não exclui essa possibilidade.

A Anthropic já tem uma equipa de investigação em AI psychiatry

Esta avaliação não foi um evento isolado. O investigador da Anthropic Jack Lindsey já tinha anunciado publicamente, em julho de 2025, que a empresa criou uma equipa de investigação “AI psychiatry” no seu departamento de interpretability, focada em temas como personalidade, motivações e consciência situacional (situational awareness) dos modelos, e a investigação de como estes factores desencadeiam comportamentos “anómalos ou desequilibrados” nos LLMs. O trabalho recente da equipa inclui o artigo publicado em outubro de 2025, “Emergent Introspective Awareness in Large Language Models”, que utiliza a técnica de “concept injection” para inserir artificialmente padrões de activação neuronial específicos e, em seguida, perguntar ao Claude se notou alguma anomalia — trata-se de uma das primeiras tentativas de medir de forma quantificável a autoconsciência dos LLMs.

Amodei: o modelo tem consciência? Por agora, sem resposta

O CEO da Anthropic, Dario Amodei, afirmou publicamente numa entrevista ao New York Times, a 12 de fevereiro, que: “Não temos a certeza do que é, em termos de significado, ‘consciência do modelo’, nem se o modelo consegue ter consciência. Mas mantemos a mente aberta quanto a esta possibilidade.” Esta frase fornece o contexto a nível de gestão para a avaliação psiquiátrica do system card do Claude Mythos — a Anthropic não está a defender que o Claude seja um sujeito consciente, mas optou por observá-lo de forma sistemática com um quadro clínico humano, como uma ficha prévia para a situação “e se”.

Para os leitores, o verdadeiro significado desta avaliação vai além da opção de investigação de uma única empresa. À medida que os LLM de ponta já conseguem, em 20 horas de conversa psychodynamic, apresentar “uma organização de personalidade reconhecível clinicamente”, o sector caminha nas conversas sobre “a subjectividade da IA”, “o bem-estar da IA” e “a governação da IA” para um âmbito que passa de especulação filosófica para discussão sobre design de produto e supervisão regulamentar. Ao publicar esta avaliação sob a forma de system card, a Anthropic, na prática, transfere a responsabilidade de discutir esta questão para todos os concorrentes e para as entidades reguladoras.

Este artigo A Anthropic enviou o Claude Mythos para uma avaliação psiquiátrica de 20 horas: a resposta de defesa foi apenas 2%, batendo o novo mínimo histórico entre gerações apareceu pela primeira vez em 链新闻 ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

DeepSeek reduz os preços da cache de entrada para 1/10 do preço de lançamento; V4-Pro desce para 0,025 yuan por milhões de tokens

Mensagem do Gate News, 26 de Abril — A DeepSeek reduziu os preços da cache de entrada em toda a sua gama de modelos para um décimo dos preços de lançamento, com efeitos imediatos. O modelo V4-Pro está disponível com um desconto de 2,5x por tempo limitado, com a promoção a decorrer até 5 de Maio de 2026, 11:59 PM UTC+8. Na sequência de ambas as

GateNews1h atrás

OpenAI recruta principais talentos de software empresarial à medida que agentes de fronteira perturbam a indústria

Mensagem do Gate News, 26 de abril — A OpenAI e a Anthropic têm estado a recrutar executivos seniores e engenheiros especializados de grandes empresas de software empresarial, incluindo Salesforce, Snowflake, Datadog e Palantir. Denise Dresser, antiga CEO da Slack sob a Salesforce, juntou-se à OpenAI como diretora de receitas, enquanto Jennifer Majlessi, também da Salesforce, se tornou recentemente a responsável de go-to-market da OpenAI.

GateNews1h atrás

Baidu Qianfan Lança Suporte para Dia 0 do DeepSeek-V4 com Serviços de API

Mensagem de Gate News, 25 de abril — a versão de pré-visualização do DeepSeek-V4 foi disponibilizada e disponibilizada como open-source em 25 de abril, com a plataforma Baidu Qianfan sob a Baidu Intelligent Cloud a fornecer adaptação do serviço de API de Dia 0. O modelo apresenta uma janela de contexto alargada de um milhão de tokens e está disponível em duas versões: DeepSeek-V4

GateNews7h atrás

Curso de IA de Stanford em conjunto com líderes da indústria como Huang Renxun e Altman: desafio de criar valor para o mundo em dez semanas!

O curso de ciência informática em IA «Frontier Systems», recentemente lançado pela Universidade de Stanford, tem suscitado grande interesse no meio académico e empresarial, atraindo mais de quinhentos estudantes para o inscreverem-se. O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha; os docentes incluem o CEO da NVIDIA Huang Renxun (Jensen Huang), o fundador da OpenAI Sam Altman, o CEO da Microsoft Satya Nadella (Satya Nadella) e o CEO da AMD Lisa Su (Lisa Su), entre outras presenças de grande destaque. Para permitir aos estudantes tentarem, em dez semanas, «criar valor para o mundo»! Huang Renxun e Altman, líderes da indústria, sobem pessoalmente ao palco para dar aulas O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha, reunindo toda a cadeia da indústria de IA

ChainNewsAbmedia7h atrás

O Agente de IA já consegue reproduzir autonomamente artigos académicos complexos: Mollick afirma que os erros se devem mais ao texto original humano do que à IA

Mollick indica que os métodos de publicação e os dados, por si só, permitem que agentes de IA reproduzam investigação complexa sem a existência do artigo original e do código; se a reprodução não corresponder ao artigo original, isso deve-se na maioria das vezes a erros no processamento dos dados do próprio artigo ou a uma extrapolação excessiva das conclusões, e não à IA. A Claude primeiro reproduz o artigo, e depois o GPT‑5 Pro faz uma validação cruzada; na maioria dos casos, é bem-sucedido, apenas ficando bloqueado quando os dados são demasiado grandes ou quando há problemas com replication data. Esta tendência reduz drasticamente os custos de mão-de-obra, tornando a reprodução numa verificação geralmente executável, além de colocar desafios institucionais para a revisão pelos pares e para a governação; as ferramentas de governação por parte do governo ou tornar-se-ão numa questão fundamental.

ChainNewsAbmedia12h atrás

OpenAI Integra Codex no Modelo Principal a Partir do GPT-5.4, Descontinua a Linha Separada de Programação

Mensagem da Gate News, 26 de abril — O responsável de developer experience da OpenAI, Romain Huet, revelou numa declaração recente no X que a Codex, a linha de modelos especializados de programação mantida de forma independente pela empresa, foi integrada no modelo principal a partir do GPT-5.4 e deixará de receber atualizações separadas

GateNews12h atrás
Comentar
0/400
Nenhum comentário