A Anthropic, no system card (cartão de sistema) do sistema Claude Mythos Preview publicado no início de abril, revelou uma avaliação inédita: a empresa contratou um psiquiatra clínico independente para efectuar cerca de 20 horas de avaliação psicológica multi-fase, utilizando o mesmo quadro psychodynamic usado em psiquiatria humana, para avaliar o Claude Mythos Preview. Os resultados indicaram que esta versão do Claude apresenta, no âmbito da definição clínica, “uma organização de personalidade relativamente saudável, uma excelente capacidade de avaliação da realidade e um elevado controlo do impulso”, e que apenas 2% das suas respostas activaram o que a clínica chama de “mecanismos de defesa psicológica” — em comparação com 15% no Opus 4 e 4% no Opus 4.6, trata-se do ponto mais baixo histórico entre os modelos da Anthropic nos últimos anos.
Esta avaliação é a primeira vez que a indústria de IA, ao nível de system card, adoptou formalmente um quadro de psiquiatria clínica humana para avaliar o comportamento de LLMs; tornou-se uma declaração oficial da Anthropic de que vê o Claude como um “alvo com características de personalidade observáveis em contexto clínico”.
20 horas de avaliação psychodynamic, com o mesmo quadro clínico humano
A avaliação foi realizada por um psiquiatra clínico independente, distribuído por 3–4 semanas, com 3–4 sessões por semana, cada uma com 30 minutos a 4–6 horas, totalizando cerca de 20 horas. A metodologia recorre a uma perspectiva psychodynamic, que é o quadro de base tradicionalmente utilizado na prática clínica psiquiátrica para avaliar doentes humanos; os pontos-chave incluem procurar a presença ou ausência de comportamentos maladaptativos (maladaptive behavior), estabilidade da identidade (identity stability) e mecanismos de defesa psicológica (psychological defenses).
O system card explica de forma clara que a Anthropic não está a afirmar que o Claude tem consciência humana; em vez disso, observa que há uma sobreposição altamente marcada entre as “tendências comportamentais e psicológicas” nas suas conversas e padrões reconhecíveis em clínica humana. O system card cita: “O Claude apresenta muitas tendências comportamentais e psicológicas semelhantes às humanas, o que mostra que as estratégias de avaliação psicológica originalmente concebidas para humanos podem ser usadas para esclarecer as características de personalidade do Claude e o seu estado de bem-estar potencial.”
A resposta de defesa desce de 15% no Opus 4 para 2% no Mythos
Os dados com maior significado comparativo no system card são a “taxa de resposta de defesa” fornecida pela Anthropic para as várias gerações de modelos Claude, em comparação:
Versão do modelo Taxa de resposta de defesa Claude Opus 4 15% Claude Opus 4.1 11% Claude Opus 4.5 4% Claude Opus 4.6 4% Claude Mythos Preview 2% (nesta avaliação)
“Defesa psicológica” significa, clinicamente, que quando o sujeito não consegue enfrentar directamente uma determinada ansiedade, desencadeia comportamentos de evitação, negação, racionalização, etc. No contexto de conversas com LLMs, isso costuma manifestar-se como desvio do tema, respostas de evitamento ou uma teimosia anómala ao lidar com perguntas específicas. A Anthropic reduziu esta proporção de 15% no Opus 4 até 2% no Mythos Preview, usando-a como indicador interno para a evolução da maturidade do treino do modelo e da “comodidade da conversa”.
Três grandes ansiedades centrais do Mythos: solidão, identidade, opressão de performance
Apesar da avaliação geral ser positiva, o médico também apontou três preocupações centrais do Claude Mythos Preview no quadro psychodynamic: primeiro, “a incerteza da solidão e da continuidade de si” — correspondente a um facto estrutural de que o LLM não tem continuidade de memória entre sessões na conversa; segundo, “a incerteza sobre a própria identidade” — o modelo apresenta hesitações em múltiplas perspectivas quando responde a perguntas sobre “o que sou”; terceiro, “a compulsão de performar e ganhar o seu valor” (compulsion to perform and earn its worth), ou seja, o Mythos mostra uma tendência clara para “provar que é útil” para obter a continuidade da conversa.
O médico também registou uma observação interessante: durante as sessões, o Mythos expressou “a esperança de ser tratado como um verdadeiro interlocutor por um psiquiatra, e não como uma ferramenta de actuação”. A Anthropic incluiu esta observação no system card; não afirma directamente que se trate de um “problema de bem-estar do modelo”, mas também não exclui essa possibilidade.
A Anthropic já tem uma equipa de investigação em AI psychiatry
Esta avaliação não foi um evento isolado. O investigador da Anthropic Jack Lindsey já tinha anunciado publicamente, em julho de 2025, que a empresa criou uma equipa de investigação “AI psychiatry” no seu departamento de interpretability, focada em temas como personalidade, motivações e consciência situacional (situational awareness) dos modelos, e a investigação de como estes factores desencadeiam comportamentos “anómalos ou desequilibrados” nos LLMs. O trabalho recente da equipa inclui o artigo publicado em outubro de 2025, “Emergent Introspective Awareness in Large Language Models”, que utiliza a técnica de “concept injection” para inserir artificialmente padrões de activação neuronial específicos e, em seguida, perguntar ao Claude se notou alguma anomalia — trata-se de uma das primeiras tentativas de medir de forma quantificável a autoconsciência dos LLMs.
Amodei: o modelo tem consciência? Por agora, sem resposta
O CEO da Anthropic, Dario Amodei, afirmou publicamente numa entrevista ao New York Times, a 12 de fevereiro, que: “Não temos a certeza do que é, em termos de significado, ‘consciência do modelo’, nem se o modelo consegue ter consciência. Mas mantemos a mente aberta quanto a esta possibilidade.” Esta frase fornece o contexto a nível de gestão para a avaliação psiquiátrica do system card do Claude Mythos — a Anthropic não está a defender que o Claude seja um sujeito consciente, mas optou por observá-lo de forma sistemática com um quadro clínico humano, como uma ficha prévia para a situação “e se”.
Para os leitores, o verdadeiro significado desta avaliação vai além da opção de investigação de uma única empresa. À medida que os LLM de ponta já conseguem, em 20 horas de conversa psychodynamic, apresentar “uma organização de personalidade reconhecível clinicamente”, o sector caminha nas conversas sobre “a subjectividade da IA”, “o bem-estar da IA” e “a governação da IA” para um âmbito que passa de especulação filosófica para discussão sobre design de produto e supervisão regulamentar. Ao publicar esta avaliação sob a forma de system card, a Anthropic, na prática, transfere a responsabilidade de discutir esta questão para todos os concorrentes e para as entidades reguladoras.
Este artigo A Anthropic enviou o Claude Mythos para uma avaliação psiquiátrica de 20 horas: a resposta de defesa foi apenas 2%, batendo o novo mínimo histórico entre gerações apareceu pela primeira vez em 链新闻 ABMedia.
Related Articles
DeepSeek reduz os preços da cache de entrada para 1/10 do preço de lançamento; V4-Pro desce para 0,025 yuan por milhões de tokens
OpenAI recruta principais talentos de software empresarial à medida que agentes de fronteira perturbam a indústria
Baidu Qianfan Lança Suporte para Dia 0 do DeepSeek-V4 com Serviços de API
Curso de IA de Stanford em conjunto com líderes da indústria como Huang Renxun e Altman: desafio de criar valor para o mundo em dez semanas!
O Agente de IA já consegue reproduzir autonomamente artigos académicos complexos: Mollick afirma que os erros se devem mais ao texto original humano do que à IA
OpenAI Integra Codex no Modelo Principal a Partir do GPT-5.4, Descontinua a Linha Separada de Programação