600 funcionários do Google assinam protesto: recusam a entrada do Gemini na rede militar confidencial da pentágono

Mais de 600 funcionários do Google (incluindo mais de 20 vice-presidentes e altos executivos) assinaram uma carta dirigida ao CEO Sundar Pichai, solicitando que a empresa rejeite o novo acordo para expandir o Gemini para redes confidenciais do Pentágono.
Os funcionários apontaram que, em ambientes confidenciais, nenhuma entidade externa consegue controlar sistemas de IA, e as medidas de proteção existentes são tecnicamente inviáveis de serem implementadas.
(Resumindo: Guia de Startups do Y Combinator: Quais são as tendências futuras do agente de IA?)
(Informação adicional: Estudo da Universidade da Califórnia sobre o fenômeno de “névoa cerebral de IA”: 14% dos trabalhadores ficam loucos com agentes e automação, com 40% considerando deixar o emprego)

Índice deste artigo

Alternar

  • De não confidencial a confidencial
  • O dilema estrutural em ambientes confidenciais
  • O desaparecimento silencioso dos princípios de IA do Google, em contraste com a história do Maven

Mais de 600 funcionários do Google assinaram uma carta dirigida ao CEO Sundar Pichai, incluindo pesquisadores seniores do DeepMind, mais de 20 vice-presidentes e altos executivos, pedindo que a empresa não autorize o Gemini a acessar redes militares confidenciais do Pentágono.

De não confidencial a confidencial

Vamos primeiro organizar a colaboração entre as partes. No final de 2022, o Google, junto com a AWS, Microsoft e Oracle, conquistou uma importante licitação de nuvem do Departamento de Defesa dos EUA, o JWCC, com um limite total de 9 bilhões de dólares.

Em dezembro de 2025, a plataforma GenAI.mil baseada no Gemini foi oficialmente lançada para ambientes não confidenciais.

Até março de 2026, o agente de IA Gemini já havia sido implantado para uso por todos os 3 milhões de funcionários do Departamento de Defesa.

Tudo isso ainda são aplicações em ambientes não confidenciais.

Mas o novo acordo em negociação visa expandir as funcionalidades do Gemini para ambientes “confidenciais”: ou seja, redes isoladas fisicamente, desconectadas de qualquer rede externa, usadas exclusivamente para operações militares confidenciais. Em termos simples: o Gemini entrará na sala de comando de operações.

As divergências na mesa de negociações são claras. O Google tenta estabelecer limites contratuais: proibir o uso do Gemini para rastrear cidadãos nacionais ou tomar decisões de ataque sem intervenção humana. Mas a posição do Pentágono é de “todos os usos legítimos”, sem deixar qualquer área claramente proibida, e com regras explícitas de que fornecedores externos não terão controle sobre seus sistemas de IA.

Essas duas condições entram em conflito direto. Os funcionários do Google, na carta conjunta, afirmam que as medidas de proteção propostas “não podem ser implementadas tecnicamente”.

O dilema estrutural em ambientes confidenciais

Os signatários da carta apontam uma questão fundamental: “Trabalho confidencial, por definição, é não transparente.” Isso significa que, uma vez que o Gemini entre na rede confidencial, nem mesmo o Google consegue ver o que ele está fazendo.

Em ambientes não confidenciais, o Google pode auditar chamadas de API, monitorar saídas do modelo, estabelecer barreiras de proteção e intervir ao detectar problemas. Em ambientes confidenciais, esses recursos simplesmente não existem.

Os funcionários listam preocupações específicas: perfis de análise individual (profiling, ou seja, usar IA para criar modelos de comportamento e identidade de indivíduos-alvo), e a possibilidade de usar civis inocentes como alvos de ataque. Esses cenários não são hipóteses, mas práticas já existentes na assistência de IA às operações militares.

O dilema enfrentado pela gestão atual do Google é que ela não consegue garantir, tecnicamente, aos funcionários que o Gemini não será usado para certos fins, pois ele simplesmente não consegue ser verificado dentro dessas redes.

O desaparecimento silencioso dos princípios de IA do Google, em contraste com a história do Maven

Em fevereiro de 2025, o Google modificou silenciosamente seus princípios de uso de IA, removendo a cláusula que proibia explicitamente o “desenvolvimento de armas ou monitoramento por IA”. O CEO do DeepMind, Demis Hassabis, justificou a mudança alegando que a competição global por liderança em IA estava se intensificando, e organizações de direitos humanos e a Anistia Internacional imediatamente condenaram publicamente a alteração.

No caso Maven, de 2018, 4.000 funcionários assinaram uma petição e pelo menos 12 renunciaram, levando o Google a não renovar o contrato, que foi assumido pela Palantir.

2018 - Projeto Maven do Google com o Departamento de Defesa dos EUA

Este projeto tinha como objetivo usar as tecnologias de IA e aprendizado de máquina do Google para analisar automaticamente imagens de drones, ajudando o exército dos EUA a identificar alvos. No entanto, gerou forte resistência ética interna, tornando-se um marco na história da colaboração entre tecnologia e militarismo.

O sucesso do Maven se deve, em parte, ao fato de que, em 2018, as aplicações militares de IA ainda eram uma questão marginal, e o custo de reputação para o Google era maior do que o valor do contrato. Oito anos depois, a IA tornou-se uma peça central na infraestrutura de defesa, com Google, AWS e Microsoft competindo intensamente pelos contratos.

Posição de mercado, pressão política e o cenário competitivo apontam na mesma direção: uma carta, por mais forte que seja, parece insuficiente para enfrentar os interesses de mercado por trás de contratos tão grandes.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar