Activos de cumplimiento de IA, la tecnología cuántica está "reevaluando"

作者:张烽

Actualmente, la inteligencia artificial se ha integrado de manera sin precedentes en la producción social y la vida cotidiana, y su sistema de seguridad y de gobernanza constituye la base del mundo digital. Sin embargo, una revolución de la potencia de cálculo nacida de principios físicos—la computación cuántica—se acerca silenciosamente. Su poder potencialmente disruptivo plantea interrogantes severas a las barreras de seguridad existentes y a los marcos de gobernanza. ¿La computación cuántica llegará a trastocar los sistemas actuales de seguridad y gobernanza de la IA? Esta no es solo una cuestión técnica, sino un desafío de alcance global que concierne al orden de la sociedad digital del futuro.Cuando un salto en la potencia de cálculo se enfrenta a reglas rezagadas, ¿cómo nos anticipamos para el “Q-Day”?


I. ¿Cómo puede la computación cuántica amenazar los algoritmos de cifrado asimétrico ampliamente utilizados hoy?

La seguridad de los sistemas de IA actuales, desde la transmisión del modelo hasta el almacenamiento de datos y la autenticación de identidad, depende en gran medida de algoritmos de cifrado asimétrico como RSA y ECC (cifrado de curvas elípticas). La seguridad de estos algoritmos se fundamenta en la “complejidad computacional” de problemas matemáticos difíciles como la “factorización de números grandes” o el “logaritmo discreto”, que las computadoras clásicas no pueden resolver en un tiempo aceptable.

Sin embargo, la computación cuántica trae una transformación de paradigma fundamental. Los algoritmos cuánticos, como el algoritmo de Shor, en teoría pueden reducir el tiempo de resolución de estos problemas desde un crecimiento exponencial a un crecimiento polinomial. Un artículo que evalúa investigaciones señala que, incluidos los algoritmos cuánticos más recientes, como el algoritmo de Regev y sus extensiones, se está optimizando continuamente la eficiencia para descifrar criptografía asimétrica. Esto significa que, una vez que exista una computadora cuántica universal con suficiente escala (normalmente, con millones de qubits estables), el “candado” que protege las comunicaciones de Internet, las firmas digitales y los datos cifrados podría abrirse instantáneamente.

Esta amenaza no está tan lejos. Las investigaciones de la comunidad ZhiYuan advierten que se trata de una amenaza “en tiempo presente”: los atacantes pueden empezar ahora mismo a interceptar y almacenar los datos de comunicaciones cifradas (incluidos los datos de entrenamiento de la IA, parámetros del modelo, etc.), y esperar a que la computación cuántica madure para poder descifrarlos en el futuro. La estrategia de “primero interceptar, luego descifrar” coloca toda la información de alto valor que necesita preservarse por largo tiempo, incluidos secretos estatales, patentes comerciales y datos de privacidad personal, bajo riesgo futuro. Por lo tanto, la amenaza de la computación cuántica al cifrado asimétrico es de carácter fundamental y sistémico, y socava directamente la base de los sistemas de seguridad actuales de la IA e incluso del mundo digital entero.

II. Frente a la computación cuántica, ¿qué nuevos desafíos enfrentan el entrenamiento de modelos de IA y la protección de la privacidad de los datos?

El desarrollo de la IA depende de la alimentación con grandes volúmenes de datos y del entrenamiento de modelos complejos, un proceso que en sí mismo está lleno de desafíos de privacidad y seguridad. La introducción de la computación cuántica vuelve esos desafíos aún más agudos y complejos.

En primer lugar, la confidencialidad a largo plazo del ciclo de vida de los datos deja de funcionar. Como se mencionó antes, los conjuntos de datos de entrenamiento de IA cifrados almacenados en la nube o durante la transmisión podrían quedar completamente expuestos debido al descifrado cuántico futuro. El Libro Blanco sobre la Estrategia Global Anticambio Cuántico de la Universidad Xi’an Jiaotong-Liverpool señala de manera explícita que, a escala global, los adversarios están implementando de forma organizada esta estrategia de “cosecha de datos”, con paciencia esperando la llegada de “Q-Day” (el día en que la computación cuántica se vuelve práctica). Esto representa una amenaza de origen para los modelos de IA que dependen de datos sensibles, como registros médicos, información financiera y características biométricas.

En segundo lugar, las tecnologías de computación de privacidad como el aprendizaje federado enfrentan nuevas pruebas. El aprendizaje federado protege los datos originales entrenando el modelo localmente y solo intercambiando actualizaciones de parámetros del modelo. Sin embargo, la información de gradientes o de actualizaciones de parámetros que se intercambian también está cifrada en la transmisión. Si el cifrado de base es vulnerado por la computación cuántica, los atacantes pueden deducir de forma inversa las características de los datos originales de las partes participantes, haciendo que el mecanismo de protección de privacidad sea prácticamente ineficaz.

Por último, aumenta de forma significativa la dificultad de proteger el robo de modelos y la propiedad intelectual. Los modelos de IA ya entrenados son el activo central de las empresas. Actualmente, los pesos y la arquitectura de los modelos normalmente se distribuyen y despliegan mediante cifrado. La computación cuántica podría hacer que estas medidas de protección fallen, permitiendo que los modelos se copien fácilmente, se sometan a ingeniería inversa o se manipulen, lo que provoca graves infracciones de propiedad intelectual y vulnerabilidades de seguridad. En su “Blue Book of AI Governance”, el Instituto de Investigación de Comunicaciones e Información de China destaca que la gobernanza de la inteligencia artificial debe responder a riesgos como el abuso tecnológico y la seguridad de los datos, y que la computación cuántica sin duda amplifica la capacidad destructiva de estos riesgos.

III. ¿Cómo afectará el desarrollo del aprendizaje automático cuántico a los marcos de seguridad y revisión ética de IA?

La combinación de computación cuántica y IA—aprendizaje automático cuántico (QML)—anticipa un nuevo avance en la eficiencia. Pero al mismo tiempo, también trae nuevos problemas de seguridad y ética sin precedentes, que golpean el marco actual de revisión.

En el plano de la seguridad, el QML podría generar herramientas de ataque más potentes. Por ejemplo, los algoritmos cuánticos podrían acelerar enormemente la generación de muestras adversarias, creando ataques más sigilosos y con mayor capacidad de daño, y haciendo que los actuales sistemas de defensa de seguridad de IA basados en computación clásica (como el entrenamiento adversarial y la detección de anomalías) queden rápidamente desactualizados. Un análisis denomina “la próxima guerra de vida o muerte” para la ciberseguridad a “cuántica + IA” y señala que es necesario perfeccionar con visión de futuro los marcos regulatorios pertinentes.

En el plano ético, la característica de “caja negra” del QML podría ser incluso más insondable que la de la IA clásica. Su proceso de decisión se basa en superposición cuántica y estados entrelazados, lo que podría hacerlo más difícil de explicar, auditar y responsabilizar. Ya hay muchos debates y riesgos sobre la equidad algorítmica, la delimitación de responsabilidades y la capacidad de control técnico que introduce el QML. ¿Cómo se materializan en una escala cuántica los criterios éticos de IA existentes (como transparencia, equidad y rendición de cuentas)? ¿Cómo revisan las autoridades regulatorias un modelo de decisión basado en circuitos cuánticos que podría encontrarse en múltiples estados superpuestos? Estas son preguntas a las que el marco actual de revisión ética aún no está preparado. El modelo de gobernanza debe pasar de la mera conformidad técnica a una comprensión más profunda de la naturaleza de las características cuánticas y su impacto social.

IV. ¿Las regulaciones actuales de IA para gobernanza (como GDPR) pueden responder a los cambios de seguridad traídos por la computación cuántica?

Las regulaciones actuales para la gobernanza de IA y datos, representadas por el Reglamento General de Protección de Datos de la UE (GDPR), conservan en términos conceptuales un valor rector, como los principios centrales de “protección desde el diseño y protección por defecto”, “minimización de datos”, “limitación del almacenamiento” y “integridad y confidencialidad”. Sin embargo, en cuanto a la implementación técnica concreta y los requisitos de cumplimiento, se enfrentan a la “brecha de cumplimiento” causada por la computación cuántica.

El GDPR exige que los controladores de datos adopten medidas técnicas y organizativas apropiadas para garantizar la seguridad de los datos. Pero en el contexto de las amenazas cuánticas, ¿qué significa “medidas de cifrado apropiadas”? Seguir usando algoritmos que se ha demostrado que no son seguros frente a la computación cuántica probablemente se considerará que no se han cumplido las obligaciones de garantía de seguridad. Respecto a los plazos para notificar violaciones de datos estipulados en el reglamento, ¿cómo se pueden ejecutar de manera efectiva cuando se sufre un ataque avanzado que utiliza computación cuántica, que puede completarse instantáneamente y sin dejar rastro?

A nivel global, los legisladores ya son conscientes de la necesidad de cambios. El “Informe Anual 2025 sobre Gobernanza Global de Inteligencia Artificial” muestra que los países están acelerando la formulación de leyes específicas de gobernanza de IA y estableciendo organismos de coordinación de alto nivel. China, en el “Informe de Desarrollo de China Digital (2024)”, enfatiza la necesidad de “acelerar el perfeccionamiento de las instituciones base de datos” y continuar impulsando la acción de “Inteligencia Artificial +”. Estos movimientos indican que el sistema de gobernanza se está ajustando activamente. Sin embargo, las regulaciones dirigidas específicamente al campo interseccional de “computación cuántica + IA” prácticamente aún están en blanco. Las regulaciones existentes carecen de disposiciones específicas sobre el calendario de migración hacia la criptografía post-cuántica, estándares de auditoría de modelos de QML y clasificación de niveles de seguridad de datos en la era cuántica, lo que dificulta responder de manera efectiva a los cambios de seguridad que se avecinan.

V. ¿Cuáles son las perspectivas de aplicación y las dificultades de implementación de la criptografía post-cuántica en sistemas de IA?

La solución técnica más directa para enfrentar las amenazas cuánticas es la criptografía post-cuántica (PQC). PQC se refiere a algoritmos criptográficos capaces de resistir los ataques de las computadoras cuánticas. No se basa en principios cuánticos, sino en nuevos problemas matemáticos que se cree que ni siquiera las computadoras cuánticas pueden resolver rápidamente (como enrejados, códigos, variables múltiples, etc.).

Hay amplias y urgentes perspectivas de aplicación en sistemas de IA. La PQC puede utilizarse para proteger cada eslabón del flujo de trabajo de IA: cifrar con algoritmos PQC los datos de entrenamiento y los archivos de modelo; usar firmas digitales PQC para verificar la integridad y autenticidad del origen del modelo; y establecer canales de comunicación segura PQC entre nodos de cálculo distribuidos de IA. Fortinet señala que la PQC no es un concepto lejano, sino una solución práctica que responde con urgencia a la necesidad de proteger los sistemas digitales de amenazas cuánticas potenciales.

Sin embargo, la implementación integral de la PQC enfrenta dificultades significativas:

Desafíos de rendimiento y compatibilidad: muchos algoritmos PQC tienen tamaños de claves, longitudes de firma o costos computacionales muy superiores a los de los algoritmos actuales, y al integrarlos en flujos de entrenamiento e inferencia de IA sensibles a la eficiencia de cómputo y la latencia, podrían generar cuellos de botella de rendimiento. Además, se requiere actualizar todo el hardware, software y el stack de protocolos relacionados para garantizar la compatibilidad.

Complejidad de estándares y migración: aunque entidades como NIST de EE. UU. están impulsando la estandarización de PQC, aún se necesita tiempo para definir los estándares finales y lograr una unificación global. La “dinámica del frente de la seguridad comercial” publicada por la Oficina de Administración de Seguridad de Beijing (密管局) muestra que la industria está implementando activamente en código abierto algoritmos candidatos de NIST para ayudar a distintos sectores a responder a las amenazas. Toda la migración es un gran y complejo proyecto de sistema que involucra evaluación de riesgos, selección de algoritmos, despliegue híbrido, pruebas y reemplazo integral. Esto es especialmente cierto para sistemas ecosistema de IA con estructuras complejas.

Nuevos riesgos de seguridad: los algoritmos PQC en sí son un campo de investigación relativamente nuevo, y su seguridad a largo plazo aún no ha sido puesta a prueba de la manera larga y práctica, durante décadas, como lo ha sido RSA. Desplegar de forma apresurada PQC con posibles vulnerabilidades desconocidas en sistemas de IA también constituye un riesgo.

VI. Frente a este cambio, esperar pasivamente el “Q-Day” es peligroso

El impacto disruptivo de la computación cuántica en los sistemas de seguridad y gobernanza actuales de la IA es real y se aproxima. No es un reemplazo completo que destruya la configuración actual, sino que, al desmantelar sus bases criptográficas, amplificar los riesgos de datos, complejizar sus problemas éticos y evidenciar la obsolescencia de su atraso regulatorio, obliga a que todo el sistema realice una actualización profunda y prospectiva.

Ante este cambio, esperar pasivamente el “Q-Day” es peligroso. Recomendamos tomar las siguientes rutas de acción ejecutables:

Iniciar la evaluación de riesgos de seguridad cuántica y elaborar un inventario: realizar de inmediato una evaluación de amenazas cuánticas sobre los activos centrales de IA (especialmente los modelos y datos que involucran información sensible a largo plazo), identificar los eslabones más frágiles y establecer un inventario de prioridades para la migración.

Formular e implementar una hoja de ruta de migración a PQC: seguir los avances de organismos de estandarización como NIST e iniciar la planificación de la integración de PQC en el desarrollo y la operación de sistemas de IA. Dar prioridad a la adopción de un diseño de “agilidad criptográfica” en sistemas nuevos y sistemas críticos, para facilitar el reemplazo sin fisuras de algoritmos criptográficos en el futuro. Puede considerarse el uso de un modo de cifrado híbrido “clásico + PQC” como transición.

Impulsar una actualización adaptativa de los marcos de gobernanza: las organizaciones de la industria, los organismos de estándares y las autoridades regulatorias deben colaborar para investigar e incorporar requisitos de resistencia cuántica a los estándares de seguridad de IA, las regulaciones de protección de datos y los sistemas de certificación de productos. Establecer con antelación un marco de investigación y guías para la revisión ética de QML.

Fortalecer la formación de talento y la investigación entre disciplinas: cultivar profesionales de perfil mixto que dominen tanto la IA como la computación cuántica y la criptografía, e impulsar que en las investigaciones de seguridad de IA se integren modelos de amenazas cuánticas, financiando el desarrollo de tecnologías de seguridad de IA resistentes a lo cuántico.

Los desafíos que trae la computación cuántica son enormes, pero también nos brinda la oportunidad de revisar y reforzar las bases del mundo digital. Mediante una planificación proactiva, la innovación colaborativa y una gobernanza ágil, es completamente posible construir un futuro de IA más resiliente que pueda aprovechar los beneficios del cómputo cuántico y, al mismo tiempo, resistir sus riesgos de seguridad.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado