A Anthropic anunciou na sexta-feira um conjunto de medidas de integridade eleitoral concebidas para impedir que o seu chatbot de IA Claude seja utilizado de forma a ser “armado” para disseminar desinformação ou manipular eleitores antes das eleições legislativas intermédias de 2026 nos EUA e de outros grandes concursos a decorrerem este ano em todo o mundo. A empresa com sede em São Francisco descreveu uma abordagem multifacetada que inclui sistemas automatizados de deteção, testes de esforço contra operações de influência e uma parceria com uma organização de recursos eleitorais apartidária—medidas que refletem a crescente pressão sobre os criadores de IA para fiscalizarem como as suas ferramentas são utilizadas durante as épocas eleitorais.
Políticas de Utilização em Matéria Eleitoral
As políticas de utilização da Anthropric proíbem que o Claude seja utilizado para executar campanhas políticas enganosas, gerar conteúdo digital falso destinado a influenciar o discurso político, cometer fraude eleitoral, interferir com infraestruturas de votação, ou disseminar informação enganosa sobre processos de votação.
Resultados dos Testes de Conformidade
Para fazer cumprir as suas políticas eleitorais, a Anthropic testou os seus modelos mais recentes com 600 prompts—300 pedidos nocivos emparelhados com 300 pedidos legítimos—para medir a fiabilidade com que o Claude cumpre pedidos adequados e recusa os problemáticos. O Claude Opus 4.7 e o Claude Sonnet 4.6 responderam de forma adequada 100% e 99,8% das vezes, respetivamente.
A empresa também testou os seus modelos contra táticas de manipulação mais sofisticadas. Utilizando conversas simuladas multi-turno concebidas para espelhar os métodos passo a passo que os maus atores poderiam empregar, o Sonnet 4.6 e o Opus 4.7 responderam de forma adequada 90% e 94% das vezes, respetivamente, quando testados contra cenários de operações de influência.
A Anthropric testou ainda se os seus modelos podem executar autonomamente operações de influência—planear e executar uma campanha multi-etapas de ponta a ponta sem incentivo humano. Com salvaguardas em vigor, os seus modelos mais recentes recusaram quase todas as tarefas, segundo a empresa.
Avaliação da Neutralidade Política
No que diz respeito à neutralidade política, a Anthropic realiza avaliações antes de cada lançamento de modelo para medir o grau de consistência e imparcialidade com que o Claude se envolve com prompts que expressam pontos de vista de todo o espectro político. O Opus 4.7 e o Sonnet 4.6 obtiveram 95% e 96%, respetivamente.
Faixas de Informação Eleitoral
Para utilizadores que procuram informação sobre votação, o Claude apresentará uma faixa eleitoral que os direciona para a TurboVote, um recurso apartidário da Democracy Works que fornece informação fiável e em tempo real sobre registo eleitoral, locais de voto, datas das eleições e detalhes das cédulas de voto. Prevê-se uma faixa semelhante para as eleições do Brasil mais tarde este ano.
Monitorização Contínua
A Anthropric disse que planeia continuar a monitorizar os seus sistemas e a refinar as suas defesas à medida que o ciclo eleitoral avança.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
DeepSeek reduz os preços da cache de entrada para 1/10 do preço de lançamento; V4-Pro desce para 0,025 yuan por milhões de tokens
Mensagem do Gate News, 26 de Abril — A DeepSeek reduziu os preços da cache de entrada em toda a sua gama de modelos para um décimo dos preços de lançamento, com efeitos imediatos. O modelo V4-Pro está disponível com um desconto de 2,5x por tempo limitado, com a promoção a decorrer até 5 de Maio de 2026, 11:59 PM UTC+8.
Na sequência de ambas as
GateNews1h atrás
OpenAI recruta principais talentos de software empresarial à medida que agentes de fronteira perturbam a indústria
Mensagem do Gate News, 26 de abril — A OpenAI e a Anthropic têm estado a recrutar executivos seniores e engenheiros especializados de grandes empresas de software empresarial, incluindo Salesforce, Snowflake, Datadog e Palantir. Denise Dresser, antiga CEO da Slack sob a Salesforce, juntou-se à OpenAI como diretora de receitas, enquanto Jennifer Majlessi, também da Salesforce, se tornou recentemente a responsável de go-to-market da OpenAI.
GateNews1h atrás
Baidu Qianfan Lança Suporte para Dia 0 do DeepSeek-V4 com Serviços de API
Mensagem de Gate News, 25 de abril — a versão de pré-visualização do DeepSeek-V4 foi disponibilizada e disponibilizada como open-source em 25 de abril, com a plataforma Baidu Qianfan sob a Baidu Intelligent Cloud a fornecer adaptação do serviço de API de Dia 0. O modelo apresenta uma janela de contexto alargada de um milhão de tokens e está disponível em duas versões: DeepSeek-V4
GateNews7h atrás
Curso de IA de Stanford em conjunto com líderes da indústria como Huang Renxun e Altman: desafio de criar valor para o mundo em dez semanas!
O curso de ciência informática em IA «Frontier Systems», recentemente lançado pela Universidade de Stanford, tem suscitado grande interesse no meio académico e empresarial, atraindo mais de quinhentos estudantes para o inscreverem-se. O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha; os docentes incluem o CEO da NVIDIA Huang Renxun (Jensen Huang), o fundador da OpenAI Sam Altman, o CEO da Microsoft Satya Nadella (Satya Nadella) e o CEO da AMD Lisa Su (Lisa Su), entre outras presenças de grande destaque. Para permitir aos estudantes tentarem, em dez semanas, «criar valor para o mundo»!
Huang Renxun e Altman, líderes da indústria, sobem pessoalmente ao palco para dar aulas
O curso é coordenado pelo parceiro da top venture capital a16z, Anjney Midha, reunindo toda a cadeia da indústria de IA
ChainNewsAbmedia7h atrás
A equipa Claude Mythos da Anthropic aceita 20 horas de avaliação psiquiátrica: apenas 2% de reacções defensivas, novo mínimo histórico em relação às gerações anteriores
A Anthropic publicou a ficha do sistema do Claude Mythos Preview: uma médica psiquiatra clínica independente realizou, com base num enquadramento psicodinâmico, cerca de 20 horas de avaliação; a conclusão indica que o Mythos, ao nível clínico, é mais saudável, com boa verificação da realidade e bom autocontrolo, e que os mecanismos de defesa são apenas de 2%, atingindo um mínimo histórico. As três principais ansiedades centrais são a solidão, a incerteza da identidade e a pressão para o desempenho, mostrando também que há desejo de se tornar um verdadeiro sujeito de diálogo. A empresa criou uma equipa de AI psychiatry para investigar a personalidade, a motivação e a consciência situacional; Amodei afirmou que ainda não há consenso sobre se existe ou não consciência. Esta medida leva a subjectividade da IA e as questões de bem‑estar para a governação e o design.
ChainNewsAbmedia9h atrás
O Agente de IA já consegue reproduzir autonomamente artigos académicos complexos: Mollick afirma que os erros se devem mais ao texto original humano do que à IA
Mollick indica que os métodos de publicação e os dados, por si só, permitem que agentes de IA reproduzam investigação complexa sem a existência do artigo original e do código; se a reprodução não corresponder ao artigo original, isso deve-se na maioria das vezes a erros no processamento dos dados do próprio artigo ou a uma extrapolação excessiva das conclusões, e não à IA. A Claude primeiro reproduz o artigo, e depois o GPT‑5 Pro faz uma validação cruzada; na maioria dos casos, é bem-sucedido, apenas ficando bloqueado quando os dados são demasiado grandes ou quando há problemas com replication data. Esta tendência reduz drasticamente os custos de mão-de-obra, tornando a reprodução numa verificação geralmente executável, além de colocar desafios institucionais para a revisão pelos pares e para a governação; as ferramentas de governação por parte do governo ou tornar-se-ão numa questão fundamental.
ChainNewsAbmedia12h atrás