A senadora Elizabeth Warren quer saber como um chatbot que supostamente gerou milhões de imagens deepfake — incluindo imagens comprometedoras de menores — acabou com chaves para os sistemas mais secretos do Pentágono.
No domingo, Warren enviou uma carta de quatro páginas ao Secretário de Defesa Pete Hegseth exigindo respostas sobre a decisão do Departamento de Defesa de dar acesso à xAI de Elon Musk às redes militares classificadas, que ela afirmou ter sido concedido enquanto várias agências federais levantavam alertas vermelhos.
“Escrevo para expressar minhas preocupações sobre a decisão relatada do Departamento de Defesa (DoD) de permitir que a xAI de Elon Musk acesse sistemas classificados, apesar das preocupações levantadas por várias agências federais, incluindo a Agência de Segurança Nacional (NSA) e a Agência de Serviços Gerais (GSA),” escreveu Warren.
“Estou preocupada que a aparente falta de salvaguardas adequadas do Grok possa representar riscos sérios para a segurança dos militares dos EUA e para a cibersegurança dos sistemas classificados,” acrescentou, “especialmente se o Grok receber informações militares sensíveis e acesso a sistemas operacionais.”
A NSA, nota a carta de Warren, “realizou uma revisão classificada” e “determinou que o Grok apresentava preocupações de segurança específicas que outros modelos não tinham.” A GSA levantou alarmes semelhantes.
“Se o Grok vazasse informações do governo, isso poderia revelar planos militares sensíveis, esforços de inteligência dos EUA e potencialmente colocar os membros das forças armadas em perigo,” escreveu Warren.
Nenhuma dessas preocupações parece ter desacelerado nada.
“Não está claro que garantias ou documentação a xAI forneceu ao Departamento de Defesa sobre as salvaguardas de segurança do Grok, práticas de manipulação de dados ou controles de segurança, nem se o DoD avaliou essas garantias antes de supostamente permitir o acesso do Grok aos sistemas classificados,” afirma a carta.
O timing não poderia ser mais difícil de ignorar. No mesmo dia em que a carta de Warren foi enviada, três menores do Tennessee entraram com uma ação coletiva federal contra a xAI, alegando que o Grok gerou material de abuso sexual infantil com base em suas fotos reais. A denúncia acusa a xAI de liberar deliberadamente o Grok sem salvaguardas padrão da indústria, chamando isso de “uma oportunidade de negócio” para lucrar com a exploração de pessoas reais, incluindo crianças.
Na semana passada, o Washington Post relatou que um funcionário do Departamento de Eficiência Governamental (DOGE), sob supervisão de Musk, copiou registros sensíveis de dados da Administração da Seguridade Social de centenas de milhões de americanos, pretendendo usar esses dados em sua nova startup de tecnologia.
A carta de Warren também cita o histórico do Grok de gerar conteúdo antissemita, instruções para cometer assassinatos e ataques terroristas, além de deepfakes não consensuais, apesar de promessas repetidas de correções. Centenas de milhares de conversas privadas do Grok também foram indexadas no Google em agosto passado.
Testes governamentais mostraram que o Grok é mais suscetível do que modelos concorrentes a ataques de “envenenamento de dados” — onde dados manipulados corrompem as saídas do sistema — uma vulnerabilidade séria para uma ferramenta considerada para desenvolvimento de armas e inteligência de campo. O próprio Chefe de IA Responsável do Pentágono circulou memorandos internos sobre esses riscos e renunciou pouco tempo depois.
O acordo em si foi fechado sob circunstâncias incomuns. A xAI foi, supostamente, uma adição tardia ao pool de contratos de IA do Pentágono, recebendo um contrato de até 200 milhões de dólares em julho passado. O acordo de acesso classificado seguiu em fevereiro, justo quando o DoD estava publicamente em conflito com a Anthropic sobre salvaguardas de segurança.
Quando questionado, um porta-voz do Pentágono disse ao Wall Street Journal que o departamento “estava entusiasmado em ter a xAI, uma das principais empresas de IA de fronteira dos EUA, a bordo e espera implantar o Grok em sua plataforma oficial de IA, GenAI.mil, em um futuro muito próximo.”
Esse contexto é importante. A Anthropic era a única empresa de IA com sistemas prontos para classificação, com Claude implantado em operações militares reais. Após a Anthropic recusar a exigência do Pentágono de disponibilizar o Claude para “todos os propósitos legais” — especificamente resistindo a armas autônomas e vigilância doméstica em massa — o DoD rotulou a empresa como risco na cadeia de suprimentos. A xAI e a OpenAI foram anunciadas como substitutas.
Não há registros de a xAI questionar o alcance do padrão “todos os propósitos legais”. A OpenAI foi mais diplomática, estabelecendo algumas fronteiras a nível de servidor.
Warren está pedindo a Hegseth que responda até 30 de março com o texto completo do acordo com a xAI, todas as comunicações internas sobre o negócio e respostas sobre se algum teste ou avaliação foi realizado antes do acesso ser concedido. Uma de suas 10 perguntas questiona diretamente se existem salvaguardas para garantir que o Grok não cause “decisões de alvo errôneas” se implantado em sistemas operacionais críticos.