Fuente de la imagen: Generado por herramientas Unbounded AI
El aumento de la IA desencadenado por OpenAI continúa, pero si bien las aplicaciones relacionadas con AIGC mejoran la eficiencia de la producción, los delincuentes también las utilizan para generar contenido falso e interrumpir el funcionamiento normal de la sociedad.
El informe de investigación de valores de Guosen señaló que las aplicaciones domésticas de IA se están expandiendo gradualmente y las aplicaciones relacionadas con la IA aumentarán gradualmente. En vista del riesgo de abuso de la IA, la seguridad de los datos, la criptografía y la supervisión de la IA son direcciones de desarrollo tecnológico importantes.
Hace unos días, Meiya Pico lanzó un nuevo producto que puede detectar y reconocer videos, imágenes y texto generado por IA. De hecho, departamentos relevantes en nuestro país han estado explorando la supervisión legal de productos y aplicaciones AIGC. Los expertos relevantes también sugirieron que solo estableciendo y mejorando el sistema legal relevante podemos promover fundamentalmente el desarrollo saludable y sostenible de la industria AIGC de mi país.
Meiya Pico lanza productos regulatorios de IA
El 15 de mayo, Meiya Pico publicó una hoja de registro de actividades de relaciones con inversores.
La hoja de registro muestra que, en términos de productos de supervisión de IA, la compañía lanzó la estación de trabajo de autenticación de imágenes de video AI-3300 "Huiyan", que puede monitorear e identificar imágenes de video profundamente sintetizadas y falsificadas e imágenes de video generadas por AIGC. La plataforma de detección AIGC lanzada por la empresa admite la detección y el reconocimiento de texto generado por AIGC.
Al mismo tiempo, Meiya Pico dijo que las compañías de seguimiento continuarán realizando investigaciones sobre la seguridad de la IA y los campos regulatorios, incluida la IA antigenerativa, y desplegarán productos relacionados de manera oportuna de acuerdo con las necesidades comerciales.
Un reportero de Metaverse NEWS llamado Meiya Pico, y el responsable de la empresa dijo que desde la perspectiva del modelo de negocio, los productos de seguridad de IA de la empresa sirven principalmente a las agencias reguladoras como la seguridad pública y la información de la red, con el objetivo de utilizar tecnología generativa. en Internet para llevar a cabo actividades ilegales Identificación e identificación del comportamiento de difusión de información, además, se pueden proporcionar servicios de evaluación de seguridad y cumplimiento para los fabricantes que brindan servicios generativos.
La persona de conexión mencionada anteriormente dijo francamente que los fabricantes nacionales de modelos a gran escala todavía están en la etapa de lanzamiento y aplicación al mercado.Desde la perspectiva del lado B, la cooperación en el campo comercial aún está en discusión.
"Con la madurez de la tecnología de falsificación profunda y la tecnología AIGC, el umbral tecnológico para la falsificación de video, audio e imágenes se ha reducido considerablemente, y el riesgo de abuso de la tecnología de IA se ha ampliado aún más, y la supervisión debe fortalecerse con urgencia". Ángel El inversionista y experto senior en inteligencia artificial Guo Tao Xiang Yuan Un reportero de Cosmos News dijo que las herramientas de monitoreo de IA tienen resultados relativamente buenos en el monitoreo e identificación de imágenes, videos y videos realizados con tecnología de falsificación profunda y tecnología AIGC, lo que puede reducir el riesgo de tecnología. abuso.
El Dr. Li Sanping, científico ejecutivo sénior del Grupo de I+D de Dell Technologies China, dijo al reportero de Yuanverse News que, desde un punto de vista técnico, ha habido algunos intentos de generar imágenes y videos con IA. Por ejemplo, Google marcará cada IA -imagen generada creada por sus herramientas.
"Es técnicamente fácil de identificar y no afecta a los usuarios en uso. Sin embargo, el contenido del texto aún se está explorando", dijo Li Sanping.
La supervisión de IA siempre está en camino
Guosen Securities cree que a medida que las empresas nacionales de Internet como Baidu, 360, Ali, Huawei y Tencent lanzan o planean lanzar modelos a gran escala, las aplicaciones relacionadas con la IA aumentarán gradualmente. En vista del riesgo de abuso de la IA, la seguridad de los datos, la criptografía y la supervisión de la IA son direcciones de desarrollo tecnológico importantes.
De hecho, mi país siempre ha otorgado gran importancia a la supervisión de AI.
El 10 de enero de 2023 entró en vigor el "Reglamento sobre la Administración de Síntesis Profunda de los Servicios de Información de Internet" (en adelante, el "Reglamento"). Las "Regulaciones" aclaran que los servicios que brindan funciones como diálogo inteligente, voz humana sintética, generación de rostros y escenas virtuales inmersivas que generan o cambian significativamente el contenido de la información deben marcarse de manera destacada para evitar la confusión pública o la identificación errónea. Ninguna organización o individuo puede usar medios técnicos para borrar, alterar u ocultar marcas relevantes.
El 11 de abril, la Administración del Ciberespacio de China emitió las "Medidas para la Administración de Servicios de Inteligencia Artificial Generativa (Borrador para comentarios)" (denominadas las "Medidas"), centrándose en la IA generativa por primera vez y aclarando aún más la límites legales y entidades responsables. Las "Medidas" proponen que las organizaciones y las personas que utilizan productos de inteligencia artificial generativa para brindar servicios como chat y generación de texto, imagen y sonido, incluidas las organizaciones y las personas que ayudan a otros a generar texto, imagen y sonido por sí mismos mediante la programación interfaces, etc., deben asumir la responsabilidad del productor del contenido generado por este producto. Los proveedores deben ser responsables de la legitimidad de los datos previos al entrenamiento y las fuentes de datos de entrenamiento optimizados de los productos de inteligencia artificial generativa.
"En términos de supervisión de la industria de IA, existen problemas pendientes, como leyes, reglamentos y sistemas estándar incompletos, la falta de un sistema de supervisión de arriba hacia abajo coordinado por múltiples departamentos y tecnología de supervisión atrasada". Guo Tao señaló que los departamentos gubernamentales relevantes necesidad de establecer y mejorar la I+D de AIGC y aplicar las leyes, los reglamentos y los sistemas estándar pertinentes, establecer o mejorar el sistema de revisión ética y el sistema de supervisión, fortalecer la supervisión de las empresas de tecnología, los escenarios de aplicación y los usuarios, construir una plataforma de gobernanza colaborativa de múltiples partes , y promover el desarrollo saludable y sostenible de la industria AIGC.
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
¿Cómo regular la IA? Expertos sugieren mejorar sistema de garantías legales y estándares
Autor: Xu Cihao
Fuente: Associated Press financiera
El aumento de la IA desencadenado por OpenAI continúa, pero si bien las aplicaciones relacionadas con AIGC mejoran la eficiencia de la producción, los delincuentes también las utilizan para generar contenido falso e interrumpir el funcionamiento normal de la sociedad.
El informe de investigación de valores de Guosen señaló que las aplicaciones domésticas de IA se están expandiendo gradualmente y las aplicaciones relacionadas con la IA aumentarán gradualmente. En vista del riesgo de abuso de la IA, la seguridad de los datos, la criptografía y la supervisión de la IA son direcciones de desarrollo tecnológico importantes.
Hace unos días, Meiya Pico lanzó un nuevo producto que puede detectar y reconocer videos, imágenes y texto generado por IA. De hecho, departamentos relevantes en nuestro país han estado explorando la supervisión legal de productos y aplicaciones AIGC. Los expertos relevantes también sugirieron que solo estableciendo y mejorando el sistema legal relevante podemos promover fundamentalmente el desarrollo saludable y sostenible de la industria AIGC de mi país.
Meiya Pico lanza productos regulatorios de IA
El 15 de mayo, Meiya Pico publicó una hoja de registro de actividades de relaciones con inversores.
La hoja de registro muestra que, en términos de productos de supervisión de IA, la compañía lanzó la estación de trabajo de autenticación de imágenes de video AI-3300 "Huiyan", que puede monitorear e identificar imágenes de video profundamente sintetizadas y falsificadas e imágenes de video generadas por AIGC. La plataforma de detección AIGC lanzada por la empresa admite la detección y el reconocimiento de texto generado por AIGC.
Al mismo tiempo, Meiya Pico dijo que las compañías de seguimiento continuarán realizando investigaciones sobre la seguridad de la IA y los campos regulatorios, incluida la IA antigenerativa, y desplegarán productos relacionados de manera oportuna de acuerdo con las necesidades comerciales.
Un reportero de Metaverse NEWS llamado Meiya Pico, y el responsable de la empresa dijo que desde la perspectiva del modelo de negocio, los productos de seguridad de IA de la empresa sirven principalmente a las agencias reguladoras como la seguridad pública y la información de la red, con el objetivo de utilizar tecnología generativa. en Internet para llevar a cabo actividades ilegales Identificación e identificación del comportamiento de difusión de información, además, se pueden proporcionar servicios de evaluación de seguridad y cumplimiento para los fabricantes que brindan servicios generativos.
La persona de conexión mencionada anteriormente dijo francamente que los fabricantes nacionales de modelos a gran escala todavía están en la etapa de lanzamiento y aplicación al mercado.Desde la perspectiva del lado B, la cooperación en el campo comercial aún está en discusión.
"Con la madurez de la tecnología de falsificación profunda y la tecnología AIGC, el umbral tecnológico para la falsificación de video, audio e imágenes se ha reducido considerablemente, y el riesgo de abuso de la tecnología de IA se ha ampliado aún más, y la supervisión debe fortalecerse con urgencia". Ángel El inversionista y experto senior en inteligencia artificial Guo Tao Xiang Yuan Un reportero de Cosmos News dijo que las herramientas de monitoreo de IA tienen resultados relativamente buenos en el monitoreo e identificación de imágenes, videos y videos realizados con tecnología de falsificación profunda y tecnología AIGC, lo que puede reducir el riesgo de tecnología. abuso.
El Dr. Li Sanping, científico ejecutivo sénior del Grupo de I+D de Dell Technologies China, dijo al reportero de Yuanverse News que, desde un punto de vista técnico, ha habido algunos intentos de generar imágenes y videos con IA. Por ejemplo, Google marcará cada IA -imagen generada creada por sus herramientas.
"Es técnicamente fácil de identificar y no afecta a los usuarios en uso. Sin embargo, el contenido del texto aún se está explorando", dijo Li Sanping.
La supervisión de IA siempre está en camino
Guosen Securities cree que a medida que las empresas nacionales de Internet como Baidu, 360, Ali, Huawei y Tencent lanzan o planean lanzar modelos a gran escala, las aplicaciones relacionadas con la IA aumentarán gradualmente. En vista del riesgo de abuso de la IA, la seguridad de los datos, la criptografía y la supervisión de la IA son direcciones de desarrollo tecnológico importantes.
De hecho, mi país siempre ha otorgado gran importancia a la supervisión de AI.
El 10 de enero de 2023 entró en vigor el "Reglamento sobre la Administración de Síntesis Profunda de los Servicios de Información de Internet" (en adelante, el "Reglamento"). Las "Regulaciones" aclaran que los servicios que brindan funciones como diálogo inteligente, voz humana sintética, generación de rostros y escenas virtuales inmersivas que generan o cambian significativamente el contenido de la información deben marcarse de manera destacada para evitar la confusión pública o la identificación errónea. Ninguna organización o individuo puede usar medios técnicos para borrar, alterar u ocultar marcas relevantes.
El 11 de abril, la Administración del Ciberespacio de China emitió las "Medidas para la Administración de Servicios de Inteligencia Artificial Generativa (Borrador para comentarios)" (denominadas las "Medidas"), centrándose en la IA generativa por primera vez y aclarando aún más la límites legales y entidades responsables. Las "Medidas" proponen que las organizaciones y las personas que utilizan productos de inteligencia artificial generativa para brindar servicios como chat y generación de texto, imagen y sonido, incluidas las organizaciones y las personas que ayudan a otros a generar texto, imagen y sonido por sí mismos mediante la programación interfaces, etc., deben asumir la responsabilidad del productor del contenido generado por este producto. Los proveedores deben ser responsables de la legitimidad de los datos previos al entrenamiento y las fuentes de datos de entrenamiento optimizados de los productos de inteligencia artificial generativa.
"En términos de supervisión de la industria de IA, existen problemas pendientes, como leyes, reglamentos y sistemas estándar incompletos, la falta de un sistema de supervisión de arriba hacia abajo coordinado por múltiples departamentos y tecnología de supervisión atrasada". Guo Tao señaló que los departamentos gubernamentales relevantes necesidad de establecer y mejorar la I+D de AIGC y aplicar las leyes, los reglamentos y los sistemas estándar pertinentes, establecer o mejorar el sistema de revisión ética y el sistema de supervisión, fortalecer la supervisión de las empresas de tecnología, los escenarios de aplicación y los usuarios, construir una plataforma de gobernanza colaborativa de múltiples partes , y promover el desarrollo saludable y sostenible de la industria AIGC.