O Departamento de Defesa dos Estados Unidos está a avaliar a possibilidade de incluir a empresa de inteligência artificial Anthropic na “lista negra de riscos na cadeia de abastecimento”, bloqueando o seu modelo emblemático Claude no sistema de defesa. A divergência entre as partes sobre o uso militar foi a faísca que desencadeou a controvérsia; a Anthropic insiste em estabelecer limites lógicos, enfatizando que os seus produtos não devem ser utilizados para vigilância ou armas, enquanto o Pentágono acredita que a IA militar deve servir a todos os propósitos.
Mudança de direção na cooperação militar: Anthropic enfrenta revisão de “risco na cadeia de abastecimento”
De acordo com a Axios, o Departamento de Defesa dos EUA, com sede no Pentágono, está a considerar cortar ligações comerciais com a Anthropic, propondo a sua inclusão na “lista negra de riscos na cadeia de abastecimento”. Normalmente, esta é uma medida punitiva dirigida a potências estrangeiras hostis, podendo proibir todas as empresas que colaboram com o exército americano de utilizarem os sistemas de IA da Anthropic.
Atualmente, o modelo Claude da Anthropic já está integrado em vários sistemas confidenciais militares. Se for forçosamente removido, os contratantes envolvidos enfrentarão custos técnicos e de conformidade elevados, com um valor potencial de contratos de defesa afetados estimado em cerca de 2 mil milhões de dólares.
A ação de Maduro foi a faísca: limites do uso militar de IA vêm à tona
Um dos pontos de controvérsia é o uso do Claude numa missão militar em janeiro deste ano contra o presidente venezuelano Nicolás Maduro, uma operação que foi bem-sucedida graças à colaboração entre a Anthropic e a empresa de análise de dados Palantir.
Segundo relatos, os altos dirigentes da Anthropic questionaram posteriormente o uso relacionado, insinuando que tinham dúvidas quanto à utilização do seu modelo em operações que envolvessem fogo real. Esta postura desagradou o Pentágono, que considera que as empresas não deveriam questionar o uso militar específico dentro de um quadro de cooperação já assinado. Seguiram-se várias rodadas de negociações sobre o alcance do uso da IA, incluindo áreas como vigilância, recolha de inteligência e desenvolvimento de armas.
Sean Parnell, porta-voz do Pentágono, confirmou a notícia, definindo-a como uma questão de segurança nacional: “Os parceiros de cooperação devem estar dispostos a ajudar os nossos combatentes a vencer qualquer batalha. No fundo, trata-se da segurança das nossas tropas e do povo americano.”
Quando a ética encontra a segurança nacional: postura firme do Departamento de Defesa
Dario Amodei, CEO da Anthropic, tem defendido a necessidade de estabelecer limites éticos claros para a IA. A política de uso da empresa proíbe explicitamente que os seus modelos sejam utilizados para o desenvolvimento de armas, vigilância doméstica ou sistemas de armas totalmente autónomas, salvo em condições específicas de contrato que exijam avaliação adicional.
(De ferramentas de autoritarismo a riscos de descontrole: CEO da Anthropic explica os cinco maiores perigos da IA poderosa para a humanidade)
No entanto, o Pentágono acredita que as ferramentas de IA militar devem poder ser usadas para “todos os fins legais” e aponta que, na prática, as situações de combate real frequentemente envolvem zonas cinzentas, e restrições demasiado rígidas podem diminuir a flexibilidade operacional. Sabe-se que o Departamento de Defesa também aplica padrões semelhantes a outros fornecedores de IA, incluindo OpenAI, Google e xAI (Grok).
(Participação da SpaceX na licitação de tecnologia de drones do Pentágono: Elon Musk desafia o desenvolvimento de armas de IA)
Aumento da competição entre gigantes tecnológicos: Musk critica Claude por “discriminação racial”
Durante a revisão do Departamento de Defesa, a Anthropic também enfrentou críticas públicas de concorrentes. Elon Musk, fundador da Tesla e da xAI, acusou recentemente o Claude de apresentar preconceitos ideológicos e questionou se o conteúdo gerado por ele seria hostil a certas raças. Como a xAI e a Anthropic competem diretamente no mercado de grandes modelos de linguagem e na área de cooperação militar, essa ação também é vista como uma jogada de poder no setor.
Atualmente, funcionários do governo admitiram que, em certos cenários de aplicações governamentais confidenciais, outros modelos ainda ficam atrás do Claude, o que coloca dúvidas sobre a necessidade de uma rápida mudança de fornecedor. Se o Pentágono acabar por classificar a Anthropic como risco na cadeia de abastecimento, será a primeira vez que os EUA impõem sanções a uma empresa tecnológica nacional por questões relacionadas ao uso de IA, tendo um impacto simbólico na forma como a defesa tecnológica coopera com o setor privado.
Este artigo foi originalmente publicado na Chain News ABMedia.