A OpenAI, a Anthropic e a Google lançam um mecanismo conjunto para detetar comportamentos de destilação de IA

AI蒸餾行為

De acordo com um relatório da Bloomberg a 16 de Abril, a OpenAI, a Anthropic PBC e a Google já iniciaram uma colaboração através da organização sem fins lucrativos do sector Frontier Model Forum, partilhando informações para detectar e impedir a prática de “model extraction” por meio de modelos de IA adversaria que violam os termos de serviço. A OpenAI confirmou à Bloomberg que já participou no trabalho de partilha de informações sobre model extraction adversaria.

Quadro de cooperação: mecanismo de partilha de informações do Frontier Model Forum

O Frontier Model Forum foi criado em 2023 conjuntamente pela OpenAI, a Anthropic, a Google e a Microsoft. De acordo com a Bloomberg, as três empresas trocam actualmente informações através desta organização, com o objectivo de identificar pedidos massivos de dados adversaria, acompanhar tentativas de model extraction que violem os termos de serviço e coordenar a prevenção de actividades relacionadas. A Google já publicou um artigo no blog indicando que detectou um aumento das tentativas de extracção de modelos.

De acordo com a Bloomberg, este tipo de modelo de partilha de informações está em linha com práticas existentes na indústria da segurança informática, que há muito utiliza a troca interempresarial de dados de ataques e das estratégias dos adversários para reforçar a defesa.

Memorando do Congresso da OpenAI e registo de alegações relacionadas

De acordo com um memorando (fevereiro de 2026) apresentado pela OpenAI à House Select Committee on China dos Estados Unidos, a OpenAI acusa a empresa chinesa de IA DeepSeek de tentar “aproveitar-se” de “tecnologia desenvolvida pela OpenAI e outros laboratórios de ponta dos EUA”, e afirma que esta continua a utilizar técnicas de model extraction de dados para extrair resultados de modelos dos EUA a fim de desenvolver uma nova versão de um chatbot, com métodos cada vez mais complexos.

A Anthropic publicou uma declaração em fevereiro de 2026, na qual identificou três laboratórios de IA chineses — DeepSeek, Moonshot e MiniMax — e acusou-os de extrair ilegalmente funcionalidades do modelo Claude através de model extraction adversaria. A Anthropic tinha já, em 2025, proibido empresas chinesas de utilizar o Claude. A Bloomberg também tinha noticiado anteriormente que, após a DeepSeek ter lançado o modelo de raciocínio R1 em janeiro de 2025, a Microsoft e a OpenAI iniciaram investigações sobre se houve extracção ilegal de dados de modelos dos EUA.

Posicionamento da administração Trump e limitações de conformidade antitrust

De acordo com documentos de políticas públicas, responsáveis do governo Trump indicaram que estão dispostos a promover a partilha de informações entre empresas de IA para fazer face às ameaças de model extraction adversaria. O plano de acção em matéria de Inteligência Artificial anunciado pelo Presidente Trump apela explicitamente à criação de centros de partilha de informações e de análise, sendo um dos objectivos precisamente responder a estas acções.

De acordo com a Bloomberg, o âmbito da partilha de informações sobre model extraction por via tecnológica entre as três empresas continua a ser limitado, uma vez que elas não têm certeza sobre quais informações poderão ser partilhadas em conformidade com as actuais orientações antitrust; as três empresas afirmaram que pretendem alargar o âmbito da cooperação após o governo dos EUA clarificar os quadros orientadores relevantes.

Perguntas frequentes

A OpenAI, a Anthropic e a Google cooperam através de que organização?

De acordo com a Bloomberg, as três empresas fazem partilha de informações através do Frontier Model Forum, uma organização criada em 2023 conjuntamente pela OpenAI, a Anthropic, a Google e a Microsoft, sendo uma organização sem fins lucrativos do sector.

Que conteúdo apresentou a OpenAI ao Congresso dos EUA sobre o problema do AI model extraction?

De acordo com informação divulgada pela OpenAI, a OpenAI apresentou um memorando (fevereiro de 2026) à House Select Committee on China, nos EUA, acusando a DeepSeek de continuar a extrair resultados de modelos dos EUA através de técnicas de model extraction de dados e de usar isso para desenvolver uma nova versão de um chatbot.

Que acções já publicadas tomou a Anthropic sobre o problema de model extraction dos laboratórios de IA chineses?

De acordo com a declaração pública da Anthropic, a Anthropic proibiu em 2025 empresas chinesas de utilizar o modelo Claude e, em fevereiro de 2026, identificou três laboratórios de IA chineses — DeepSeek, Moonshot e MiniMax — acusando-os de extrair ilegalmente funcionalidades do modelo Claude através de model extraction adversaria.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

O Governo Trump anunciou um plano de combate à extração de IA, acusando as empresas chinesas de roubo sistemático das capacidades dos modelos

O Gabinete de Política Tecnológica da Casa Branca (OSTP), o assessor presidencial Michael J. Kratsios, emitiu, a 23 de abril, um comunicado oficial, afirmando que a administração Trump tem informação, indicando que entidades estrangeiras (principalmente na China) estão a visar deliberadamente grandes empresas de IA dos EUA, através da extração sistemática de capacidades dos modelos de IA dos EUA por meio de “dezenas de milhares de contas de agentes” e sistemas de tecnologia de jailbreaking, e divulgando em simultâneo quatro medidas de resposta.

MarketWhisper18m atrás

A DeepSeek lançou uma pré-visualização de código aberto da V4, com uma pontuação técnica de 3206, superando o GPT-5.4

A DeepSeek lançou oficialmente a série de pré-visualização V4 em 24 de abril, com código aberto sob a licença MIT, e os pesos do modelo foram disponibilizados na Hugging Face e na ModelScope. De acordo com o relatório técnico da DeepSeek V4, o V4-Pro-Max (modo de máxima força de inferência) obteve 3206 pontos no benchmark do Codeforces, ultrapassando o GPT-5.4.

MarketWhisper34m atrás

Cambricon Conclui a Adaptação Day 0 do DeepSeek-V4, Marco para o Ecossistema de Chips de IA da China

Mensagem do Gate News, 24 de Abril — A Cambricon anunciou hoje que concluiu a adaptação Day 0 do DeepSeek-V4, o mais recente modelo de linguagem grande da DeepSeek, utilizando o seu ecossistema proprietário de software NeuWare e o framework vLLM. O código de adaptação foi simultaneamente disponibilizado como open-source, assinalando o

GateNews50m atrás

A Tencent disponibiliza como open source o Hy3 (versão de pré-visualização), com testes de referência do código melhorados em 40% face à geração anterior

A Tencent abriu oficialmente em código aberto o modelo linguístico de grande dimensão Hy3 em versão de pré-visualização a 23 de abril nas plataformas GitHub, Hugging Face e ModelScope, e disponibilizou em simultâneo um serviço de APIs pagas no seu serviço de nuvem (Tencent Cloud). Segundo a Decrypt, a 24 de abril, a versão de pré-visualização Hy3 iniciou o treino em finais de janeiro e, aquando do calendário de publicação, tinha menos de três meses.

MarketWhisper58m atrás

Investimentos da Carteira da FTX no Valor de 158 biliões Won se não tivesse falido

FTX, a bolsa centralizada de criptomoedas que pediu proteção contra falência ao abrigo do Capítulo 11 em novembro de 2022 devido a escassez de liquidez e saídas de capital, teria mantido investimentos avaliados em aproximadamente 158.796 biliões de won se não tivesse entrado em colapso, de acordo com uma análise citada por Park

CryptoFrontier1h atrás

A Xiaomi revela detalhes do treino do MiMo-V2-Pro: parâmetros do modelo 1T, milhares de GPUs implementadas

Mensagem do Gate News, 24 de Abril — A responsável da equipa de modelos de linguagem da Xiaomi, Luo Fuli, revelou numa entrevista aprofundada que o modelo MiMo-V2-Pro tem, no total, 1 bilião de parâmetros e que foram necessários milhares de GPUs para o treino. Ela referiu que a escala de 1T representa o limiar mínimo para obter

GateNews1h atrás
Comentar
0/400
Nenhum comentário