Ativos de conformidade com IA: o quantum está a "reavaliar-se"

Autor: Zhang Feng

Neste momento, a Inteligência Artificial tem-se integrado na produção social e na vida quotidiana a um nível sem precedentes, e a sua segurança e os seus sistemas de governação constituem o alicerce da era digital. No entanto, uma revolução do poder de computação, com origem em princípios físicos — a computação quântica — aproxima-se silenciosamente; o seu poder potencialmente disruptivo coloca as atuais barreiras de segurança e os quadros de governação perante um exigente escrutínio. A computação quântica irá derrubar os atuais sistemas de segurança e governação da IA? Esta não é apenas uma questão técnica, mas um desafio de alcance global que diz respeito à ordem futura da sociedade digital.Quando o salto do poder de computação encontra a demora nas regras, como nos preparamos atempadamente para o “Q-Day”?


I. Como é que a computação quântica ameaça os algoritmos de criptografia assimétrica amplamente usados atualmente?

A segurança dos sistemas de IA, desde a transmissão do modelo, ao armazenamento de dados e à autenticação de identidade, depende altamente de algoritmos de criptografia assimétrica representados pelo RSA e pela ECC (criptografia de curvas elípticas). A segurança destes algoritmos assenta na “complexidade computacional” dos “grandes problemas matemáticos” como a “fatorização de grandes números” ou o “logaritmo discreto”, que computadores clássicos não conseguem resolver no tempo aceitável.

No entanto, a computação quântica introduz uma mudança paradigmática fundamental. Algoritmos quânticos, como o de Shor, conseguem teoricamente reduzir o tempo de resolução destes problemas de nível exponencial para nível polinomial. Uma análise em forma de artigo refere que, incluindo o algoritmo de Regev e as suas extensões, os algoritmos quânticos mais recentes estão continuamente a optimizar a eficiência de quebra de criptografia assimétrica. Isto significa que, uma vez que surja um computador quântico universal com escala suficiente (normalmente, com milhões de qubits estáveis), as “trancas” que protegem atualmente as comunicações na Internet, as assinaturas digitais e os dados encriptados poderão ser abertas instantaneamente.

Esta ameaça não é algo distante. A investigação da comunidade Zhiyuan alerta para se tratar de uma ameaça “em tempo presente”: os atacantes podem já agora interceptar e armazenar dados de comunicações encriptadas (incluindo dados de treino de IA, parâmetros de modelos, etc.), aguardando que os computadores quânticos do futuro amadureçam para proceder à desencriptação. Esta estratégia de “interceptar primeiro, desencriptar depois” coloca todos os valiosos dados que necessitam de sigilo a longo prazo — incluindo segredos nacionais, patentes comerciais e dados de privacidade pessoais — sob risco no futuro. Assim, a ameaça da computação quântica à criptografia assimétrica é fundamental e sistémica, abala diretamente a base dos atuais sistemas de segurança da IA e até do mundo digital como um todo.

II. Perante a computação quântica, que novos desafios enfrentam o treino de modelos de IA e a proteção da privacidade dos dados?

O desenvolvimento da IA depende da ingestão de quantidades massivas de dados e do treino de modelos complexos; o próprio processo está repleto de desafios de privacidade e segurança. A introdução da computação quântica torna estes desafios mais agudos e complexos.

Em primeiro lugar, a confidencialidade a longo prazo do ciclo de vida dos dados deixa de ser garantida. Como referido acima, os conjuntos de dados de treino de IA atualmente armazenados de forma encriptada na nuvem ou durante a transmissão podem ser completamente expostos pela desencriptação quântica futura. Um livro branco da estratégia global de migração anti-quântica da Universidade Xi’an Jiaotong-Liverpool indica de forma explícita que, em todo o mundo, os adversários estão a implementar organizada e diligentemente esta estratégia de “colheita de dados”, aguardando pacientemente a chegada do “Q-Day” (o dia em que a computação quântica se torna prática). Isto constitui uma ameaça a montante para modelos de IA que dependem de dados sensíveis (como registos médicos, informação financeira e características biométricas).

Em segundo lugar, tecnologias de computação de privacidade como a aprendizagem federada enfrentam novos testes. A aprendizagem federada protege os dados originais treinando localmente modelos e apenas interagindo com atualizações de parâmetros do modelo. Contudo, as informações sobre gradientes ou atualizações de parâmetros transmitidas nessas interações também são encriptadas. Se a encriptação de base for violada pela computação quântica, os atacantes poderão inferir de forma inversa as características dos dados originais das partes envolvidas, fazendo com que os mecanismos de proteção de privacidade se tornem praticamente inúteis.

Por fim, a dificuldade de roubo de modelos e a proteção de propriedade intelectual intensificam-se. Um modelo de IA treinado e maduro é um ativo central das empresas. Atualmente, os pesos e a arquitetura dos modelos são tipicamente distribuídos e implementados por meio de encriptação. A computação quântica pode tornar estas medidas ineficazes, levando a que o modelo seja facilmente copiado, submetido a engenharia inversa ou adulterado, o que origina violações graves de direitos de propriedade intelectual e falhas de segurança. No seu “Blue Book” sobre a Governação da Inteligência Artificial, o Instituto de Investigação de Comunicações e Informações da China salienta que a governação da IA deve lidar com riscos como a utilização abusiva de tecnologia e a segurança dos dados, e a computação quântica amplifica, sem dúvida, a capacidade de destruição destes riscos.

III. Como é que o desenvolvimento da aprendizagem automática quântica pode afetar os enquadramentos de segurança e revisão ética da IA?

A combinação de computação quântica com IA — aprendizagem automática quântica (QML) — anuncia uma nova ronda de avanços na eficiência. Mas, ao mesmo tempo, traz também questões inéditas de segurança e ética, abalando os enquadramentos de revisão existentes.

No plano da segurança, a QML poderá dar origem a ferramentas de ataque mais poderosas. Por exemplo, algoritmos quânticos podem acelerar significativamente a geração de amostras adversariais, criando ataques mais discretos e com maior poder destrutivo, tornando rapidamente obsoletos os atuais sistemas de defesa de segurança de IA baseados em computação clássica (como treino adversarial e deteção de anomalias). Uma análise chama “o próximo campo de batalha de vida ou morte da cibersegurança” à “quântica + IA”, referindo a necessidade de aperfeiçoar de forma prospetiva os quadros regulamentares relevantes.

No plano ético, as características de “caixa negra” da QML podem ser ainda mais profundas do que as da IA clássica. O seu processo de decisão baseia-se em superposição quântica e em estados emaranhados, o que pode tornar-se mais difícil de explicar, auditar e responsabilizar. Já houve muitas discussões sobre questões éticas e riscos trazidos pela QML, como justiça algorítmica, delimitação de responsabilidades e controlabilidade técnica. Como implementar, na escala quântica, princípios éticos existentes para a IA (como transparência, justiça e responsabilização)? Como é que as entidades reguladoras analisam um modelo de decisão baseado em circuitos quânticos que pode estar em múltiplos estados em sobreposição? Estas são dificuldades para as quais os atuais enquadramentos de revisão ética ainda não estão preparados. O modelo de governação precisa de passar de uma mera conformidade técnica para uma compreensão mais profunda da essência das características quânticas e do seu impacto social.

IV. As atuais leis e regulamentos de governação da IA (como o GDPR) conseguem lidar com as mudanças de segurança trazidas pela computação quântica?

Os regulamentos atuais de governação de IA e dados, representados pelo Regulamento Geral sobre a Proteção de Dados da União Europeia (GDPR), têm, em termos conceptuais, valor orientador nos seus princípios centrais como “proteção por conceção e proteção por defeito”, “minimização de dados”, “limitação da conservação” e “integridade e confidencialidade”. No entanto, no que diz respeito à concretização técnica e aos requisitos de conformidade, estão a enfrentar o “fosso de conformidade” causado pela computação quântica.

O GDPR exige que os controladores de dados adotem medidas técnicas e organizacionais apropriadas para assegurar a segurança dos dados. Mas, no contexto de ameaças quânticas, o que é uma medida de encriptação “apropriada”? Continuar a utilizar algoritmos que foram demonstrados como não seguros para a computação quântica pode, muito provavelmente, no futuro, ser considerado como falha no cumprimento das obrigações de garantia de segurança. Quanto às exigências de prazos para notificação de violações de dados na legislação, como executá-las eficazmente quando se enfrenta um ataque avançado desencadeado pela utilização de computação quântica, que pode ser concluído de forma instantânea e sem deixar rasto?

Legisladores de todo o mundo já reconheceram a necessidade de mudança. O “Relatório Anual de 2025 sobre a Governação Global da Inteligência Artificial” mostra que os países estão a acelerar a criação de leis específicas de governação de IA, bem como a estabelecer organismos de coordenação de alto nível. A China, no “Relatório sobre o Desenvolvimento da China Digital (2024)”, enfatiza a necessidade de “acelerar o aperfeiçoamento do sistema de base para os dados” e de promover continuamente a ação “IA+”. Estes desenvolvimentos indicam que o sistema de governação está a ajustar-se ativamente. Contudo, para o domínio intermédio “computação quântica + IA”, os regulamentos específicos, neste momento, são quase inexistentes. As leis existentes carecem de disposições sobre questões concretas como cronogramas de migração para criptografia pós-quântica, padrões de auditoria de modelos de QML e classificação de níveis de segurança dos dados na era quântica, o que torna difícil responder de forma eficaz às próximas mudanças de segurança.

V. Quais são as perspetivas de aplicação e as dificuldades de implementação da criptografia pós-quântica em sistemas de IA?

A solução técnica mais direta para responder às ameaças quânticas é a criptografia pós-quântica (PQC). PQC refere-se a algoritmos criptográficos capazes de resistir a ataques de computadores quânticos; não se baseia em princípios quânticos, mas em novos problemas matemáticos (como redes de reticulados, códigos, variáveis múltiplas, etc.) que se acredita serem difíceis de resolver rapidamente mesmo para computadores quânticos.

As perspetivas de aplicação em sistemas de IA são amplas e urgentes. A PQC pode ser usada para proteger cada etapa do fluxo de trabalho de IA: encriptar, com algoritmos PQC, dados de treino e ficheiros de modelos; usar assinaturas digitais PQC para verificar a integridade e autenticidade da origem dos modelos; e estabelecer canais de comunicação seguros PQC entre nós distribuídos de computação de IA. A Fortinet afirma que a PQC não é um conceito distante, mas sim uma solução prática e premente para proteger sistemas digitais contra ameaças quânticas potenciais.

No entanto, a implementação abrangente da PQC enfrenta dificuldades significativas:

Desafios de desempenho e compatibilidade: muitos algoritmos de PQC apresentam dimensões de chaves, comprimentos de assinatura ou custos computacionais muito superiores aos dos algoritmos atuais. Ao integrá-los em processos de treino e inferência de IA sensíveis à eficiência de computação e à latência, podem surgir gargalos de desempenho. Além disso, é necessário atualizar todo o hardware, software e pilhas de protocolos relevantes para garantir compatibilidade.

Complexidade de normas e migração: embora instituições como o NIST dos Estados Unidos estejam a promover o processo de normalização da PQC, o estabelecimento final do padrão e a uniformização global ainda exigem tempo. Uma dinâmica de “frente de segurança comercial” publicada pelo Bureau Municipal de Gestão de Redes de Pequim (密管局) mostra que a indústria está a implementar ativamente, de forma open-source, algoritmos candidatos do NIST para ajudar vários setores a responder às ameaças. O processo completo de migração é uma enorme e complexa engenharia de sistema, envolvendo avaliação de riscos, seleção de algoritmos, implementação híbrida, testes e substituição integral; isto é especialmente verdade para ecossistemas de IA com estrutura complexa.

Novos riscos de segurança: a PQC é um domínio de investigação relativamente recente, e a sua segurança a longo prazo ainda não foi submetida a testes de análise criptográfica prática ao longo de décadas, como aconteceu com a RSA. A implementação apressada em sistemas de IA de PQC com vulnerabilidades desconhecidas constitui, por si só, um risco.

VI. Perante esta mudança, é perigoso esperar passivamente pelo “Q-Day”

O impacto disruptivo da computação quântica nos atuais sistemas de segurança e governação da IA é real e está iminente. Não se trata de uma anulação total dos sistemas existentes, mas sim de forçar todo o sistema a passar por uma atualização profunda e prospetiva, desmantelando a sua base criptográfica, amplificando os riscos de dados, complicando as questões éticas e evidenciando a sua demora regulamentar.

Perante esta mudança, esperar passivamente pelo “Q-Day” é perigoso. Recomendamos adotar o seguinte percurso de ações executáveis:

Iniciar a avaliação de riscos de segurança quântica e a elaboração de inventários: realizar imediatamente avaliações de ameaças quânticas para ativos centrais de IA (especialmente modelos e dados que envolvem dados sensíveis a longo prazo), identificar os elos mais vulneráveis e estabelecer uma lista de prioridades para a migração.

Definir e implementar um roteiro de migração da PQC: acompanhar os progressos de instituições de normalização como o NIST e começar a planear a integração de PQC no desenvolvimento e na operação de sistemas de IA. Dar prioridade à adoção de um desenho de “agilidade criptográfica” em sistemas recém-criados e em sistemas críticos, para permitir uma substituição perfeita futura dos algoritmos criptográficos. Pode considerar-se, como transição, o atual modelo de encriptação híbrida “clássica + PQC”.

Promover uma atualização adaptativa do quadro de governação: organizações da indústria, instituições de normalização e entidades reguladoras devem colaborar para estudar e incorporar requisitos de resistência à quântica nas normas de segurança de IA, nas leis de proteção de dados e nos sistemas de certificação de produtos. Estabelecer previamente um quadro de investigação e diretrizes para a revisão ética da QML.

Reforçar o cultivo de talentos e a investigação em áreas transversais: formar profissionais polivalentes que dominem tanto IA como computação quântica e criptografia, incentivar a inclusão de modelos de ameaças quânticas na investigação de segurança de IA e financiar o desenvolvimento de tecnologias de segurança de IA resistentes à quântica.

Os desafios trazidos pela computação quântica são enormes, mas também nos oferecem uma oportunidade para reavaliar e reforçar a base do mundo digital. Através de planeamento proativo, inovação cooperativa e governação ágil, é totalmente possível construir uma futura IA mais resiliente, capaz tanto de abraçar os benefícios do poder de computação quântica como de resistir aos seus riscos de segurança.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar