Anthropic ganha suspensão judicial do banimento do Pentagon Claude

Um juiz federal dos EUA em São Francisco bloqueou temporariamente a ação do Pentágono contra a Anthropic, oferecendo à empresa de IA alívio a curto prazo em sua luta com a administração Trump

Resumo

  • A juíza Rita Lin pausou a ação do Pentágono contra a Anthropic e bloqueou a ordem federal de suspensão de uso do Claude.
  • A Anthropic processou após o Pentágono a rotular como um risco de cadeia de suprimentos durante negociações de disputas contratuais.
  • A decisão mantém pressão sobre Washington enquanto a Anthropic defende limites sobre o uso militar e de vigilância.

A decisão impede que as agências federais imponham uma ordem de suspensão de uso contra o Claude por enquanto e coloca o foco legal em se o governo atuou além de sua autoridade.

A juíza Rita Lin do Tribunal de Distrito dos EUA para o Distrito Norte da Califórnia concedeu uma liminar preliminar na quinta-feira. A ordem impede que o Pentágono aplique seu rótulo de risco de cadeia de suprimentos contra a Anthropic enquanto o caso avança.

A decisão também pausa a diretiva do Presidente Donald Trump que instruía as agências federais a pararem de usar o chatbot da Anthropic, Claude. A juíza afirmou que o registro não apoiava a posição do governo nesta fase do caso.

A juíza Lin escreveu,

“Nada no estatuto vigente apoia a noção orwelliana de que uma empresa americana pode ser rotulada como um potencial adversário e sabotador dos EUA por expressar desacordo com o governo.”

Ela também descreveu as medidas contra a Anthropic como “arbitrárias, caprichosas, [e] um abuso de discrição.”

A disputa surgiu de negociações contratuais do Pentágono

O caso segue um colapso nas negociações entre a Anthropic e o Pentágono. Em julho de 2025, a empresa havia chegado a um acordo que teria feito do Claude o primeiro modelo de IA de fronteira aprovado para uso em redes classificadas.

Esse processo mudou de rumo mais tarde. A Anthropic disse que os oficiais do Pentágono queriam que a empresa permitisse o uso militar do Claude “para todos os fins legais” e sem limites. A empresa recusou-se a permitir usos ligados a armas autônomas letais e vigilância doméstica em massa.

A Anthropic afirmou que sua tecnologia não deveria apoiar essas atividades. O desacordo tornou-se público após o colapso das negociações contratuais em fevereiro e a empresa contestou a resposta do governo em tribunal.

Tribunal analisa a alegação de retaliação

A Anthropic apresentou sua ação judicial em 9 de março em tribunal federal em Washington, DC. A empresa argumentou que o Secretário de Defesa Pete Hegseth excedeu sua autoridade ao nomear a Anthropic como um risco de cadeia de suprimentos de segurança nacional.

Durante uma audiência em 24 de março em São Francisco, a juíza Lin pressionou os advogados do governo sobre se a Anthropic enfrentava punição por criticar publicamente a posição do Pentágono. A decisão de 26 de março disse: “punir a Anthropic por trazer escrutínio público à posição contratual do governo é uma retaliação clássica ilegal da Primeira Emenda.”

A Anthropic mais tarde disse que estava “grata ao tribunal por agir rapidamente” e afirmou que a decisão mostrava que era provável que tivesse sucesso no mérito.

Além disso, a luta judicial ocorre enquanto a Anthropic mantém uma posição forte na IA empresarial. A Menlo Ventures disse que a empresa detinha 32% desse mercado em 2025, à frente da OpenAI com 25%.

Uma proibição em todo o governo poderia ter enfraquecido essa posição. Por enquanto, a ordem do tribunal dá à Anthropic tempo para defender sua posição enquanto o caso mais amplo avança.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar