Джерело зображення: створено інструментами Unbounded AI
Сплеск штучного інтелекту, викликаний OpenAI, продовжується, але хоча програми, пов’язані з AIGC, покращують ефективність виробництва, вони також використовуються злочинцями для створення неправдивого контенту та порушення нормальної роботи суспільства.
Дослідження Guosen Securities Research Report вказує на те, що вітчизняні додатки штучного інтелекту поступово розширюються, а додатків, пов’язаних зі штучним інтелектом, буде поступово збільшуватися. З огляду на ризик зловживання штучним інтелектом безпека даних, криптографія та нагляд за штучним інтелектом є важливими напрямками технологічного розвитку.
Кілька днів тому Meiya Pico випустила новий продукт, який може виявляти та розпізнавати відео, зображення та текст, згенерований ШІ. Насправді, відповідні департаменти в нашій країні вивчають законний нагляд за продуктами та додатками AIGC. Відповідні експерти також припустили, що лише шляхом створення та вдосконалення відповідної правової системи ми можемо принципово сприяти здоровому та сталому розвитку промисловості AIGC моєї країни.
Meiya Pico випускає регуляторні продукти AI
15 травня Meiya Pico опублікувала звіт про діяльність у сфері зв’язків з інвесторами.
Запис показує, що з точки зору продуктів нагляду штучного інтелекту компанія випустила робочу станцію автентифікації відеозображень AI-3300 "Huiyan", яка може контролювати та ідентифікувати глибоко синтезовані та підроблені відеозображення та відеозображення, згенеровані AIGC. Платформа виявлення AIGC, запущена компанією, підтримує виявлення та розпізнавання тексту, створеного AIGC.
У той же час Мейя Піко сказав, що наступні компанії продовжуватимуть проводити дослідження безпеки ШІ та регуляторних сфер, включаючи антигенеративний ШІ, і своєчасно розгортати відповідні продукти відповідно до потреб бізнесу.
Репортер Metaverse NEWS зателефонував Мейї Піко, і відповідальна особа компанії сказала, що з точки зору бізнес-моделі продукти безпеки компанії AI в основному обслуговують регуляторні органи, такі як громадська безпека та мережева інформація, націлені на використання генеративних технологій. в Інтернеті для ведення незаконної діяльності Ідентифікація та ідентифікація поведінки розповсюдження інформації, крім того, послуги безпеки та оцінки відповідності можуть надаватися для виробників, які надають генеративні послуги.
Вищезгаданий зв’язок відверто сказав, що вітчизняні виробники великомасштабних моделей все ще знаходяться на стадії випуску та впровадження на ринок.З точки зору сторони B, співпраця у сфері бізнесу все ще обговорюється.
«Зі зрілістю технології глибокої підробки та технології AIGC технологічний поріг для підробки пов’язаних відео, аудіо та зображень значно знизився, а ризик зловживання технологією штучного інтелекту ще більше розширився, і нагляд необхідно терміново посилити», – Ангел. інвестор і старший експерт зі штучного інтелекту Гуо Тао Сян Юань. Репортер Cosmos News сказав, що інструменти моніторингу штучного інтелекту дають відносно хороші результати в моніторингу та ідентифікації зображень, відео та відео, створених за допомогою технології глибокої підробки та технології AIGC, що може зменшити ризик технології зловживання.
Доктор Лі Санпін, старший виконавчий науковий співробітник Dell Technologies China R&D Group, сказав журналісту Yuanverse News, що з технічної точки зору були деякі спроби генерувати зображення та відео за допомогою штучного інтелекту. Наприклад, Google позначатиме кожен штучний інтелект. -генерований образ, створений його інструментами.
«Технічно його легко ідентифікувати, і він не впливає на користувачів. Проте зміст тексту все ще вивчається», — сказав Лі Санпін.
Контроль ШІ завжди в дорозі
Guosen Securities вважає, що оскільки вітчизняні інтернет-компанії, такі як Baidu, 360, Ali, Huawei та Tencent, випускають або планують випустити великомасштабні моделі, додатки, пов’язані зі штучним інтелектом, поступово зростатимуть. З огляду на ризик зловживання штучним інтелектом безпека даних, криптографія та нагляд за штучним інтелектом є важливими напрямками технологічного розвитку.
Насправді моя країна завжди надала великого значення нагляду за ШІ.
10 січня 2023 року набуло чинності «Положення про адміністрування інформаційних послуг поглибленого синтезу мережі Інтернет» (далі – Положення). У «Положеннях» пояснюється, що послуги, які надають такі функції, як інтелектуальний діалог, синтетичний людський голос, створення обличчя та захоплюючі віртуальні сцени, які генерують або суттєво змінюють інформаційний вміст, мають бути помітно позначені, щоб уникнути плутанини або помилкової ідентифікації. Жодна організація чи окрема особа не має права використовувати технічні засоби для видалення, зміни чи приховування відповідних знаків.
11 квітня Управління кіберпростору Китаю випустило «Заходи щодо адміністрування послуг генеративного штучного інтелекту (проект для коментарів)» (надалі «Заходи»), вперше зосереджуючись на генеративному ШІ та додатково роз’яснюючи правові межі та відповідальні особи. «Заходи» пропонують організаціям і окремим особам, які використовують продукти генеративного штучного інтелекту для надання таких послуг, як чат і створення тексту, зображень і звуку, включно з організаціями та окремими особами, які допомагають іншим створювати текст, зображення і звук самостійно, надаючи програмовані інтерфейси тощо, повинні взяти на себе відповідальність виробника вмісту, створеного цим продуктом. Постачальники повинні нести відповідальність за легітимність даних попереднього навчання та оптимізованих джерел даних навчання продуктів генеративного штучного інтелекту.
«З точки зору нагляду за галуззю штучного інтелекту існують невирішені проблеми, такі як незавершені відповідні закони, нормативні акти та стандартні системи, відсутність системи нагляду зверху вниз, координованої кількома департаментами, і зворотна технологія нагляду». Гуо Тао зазначив, що відповідні урядові департаменти необхідно встановити та вдосконалити AIGC R&D та застосувати відповідні закони, правила та стандартні системи, створити або вдосконалити систему етичної перевірки та систему нагляду, посилити нагляд за технологічними компаніями, сценаріями застосування та користувачами, побудувати багатосторонню платформу спільного управління , а також сприяти здоровому та сталому розвитку промисловості AIGC.
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Як регулювати ШІ? Експерти пропонують удосконалити систему правових гарантій і стандартів
Автор: Сюй Ціхао
Джерело: Financial Associated Press
Сплеск штучного інтелекту, викликаний OpenAI, продовжується, але хоча програми, пов’язані з AIGC, покращують ефективність виробництва, вони також використовуються злочинцями для створення неправдивого контенту та порушення нормальної роботи суспільства.
Дослідження Guosen Securities Research Report вказує на те, що вітчизняні додатки штучного інтелекту поступово розширюються, а додатків, пов’язаних зі штучним інтелектом, буде поступово збільшуватися. З огляду на ризик зловживання штучним інтелектом безпека даних, криптографія та нагляд за штучним інтелектом є важливими напрямками технологічного розвитку.
Кілька днів тому Meiya Pico випустила новий продукт, який може виявляти та розпізнавати відео, зображення та текст, згенерований ШІ. Насправді, відповідні департаменти в нашій країні вивчають законний нагляд за продуктами та додатками AIGC. Відповідні експерти також припустили, що лише шляхом створення та вдосконалення відповідної правової системи ми можемо принципово сприяти здоровому та сталому розвитку промисловості AIGC моєї країни.
Meiya Pico випускає регуляторні продукти AI
15 травня Meiya Pico опублікувала звіт про діяльність у сфері зв’язків з інвесторами.
Запис показує, що з точки зору продуктів нагляду штучного інтелекту компанія випустила робочу станцію автентифікації відеозображень AI-3300 "Huiyan", яка може контролювати та ідентифікувати глибоко синтезовані та підроблені відеозображення та відеозображення, згенеровані AIGC. Платформа виявлення AIGC, запущена компанією, підтримує виявлення та розпізнавання тексту, створеного AIGC.
У той же час Мейя Піко сказав, що наступні компанії продовжуватимуть проводити дослідження безпеки ШІ та регуляторних сфер, включаючи антигенеративний ШІ, і своєчасно розгортати відповідні продукти відповідно до потреб бізнесу.
Репортер Metaverse NEWS зателефонував Мейї Піко, і відповідальна особа компанії сказала, що з точки зору бізнес-моделі продукти безпеки компанії AI в основному обслуговують регуляторні органи, такі як громадська безпека та мережева інформація, націлені на використання генеративних технологій. в Інтернеті для ведення незаконної діяльності Ідентифікація та ідентифікація поведінки розповсюдження інформації, крім того, послуги безпеки та оцінки відповідності можуть надаватися для виробників, які надають генеративні послуги.
Вищезгаданий зв’язок відверто сказав, що вітчизняні виробники великомасштабних моделей все ще знаходяться на стадії випуску та впровадження на ринок.З точки зору сторони B, співпраця у сфері бізнесу все ще обговорюється.
«Зі зрілістю технології глибокої підробки та технології AIGC технологічний поріг для підробки пов’язаних відео, аудіо та зображень значно знизився, а ризик зловживання технологією штучного інтелекту ще більше розширився, і нагляд необхідно терміново посилити», – Ангел. інвестор і старший експерт зі штучного інтелекту Гуо Тао Сян Юань. Репортер Cosmos News сказав, що інструменти моніторингу штучного інтелекту дають відносно хороші результати в моніторингу та ідентифікації зображень, відео та відео, створених за допомогою технології глибокої підробки та технології AIGC, що може зменшити ризик технології зловживання.
Доктор Лі Санпін, старший виконавчий науковий співробітник Dell Technologies China R&D Group, сказав журналісту Yuanverse News, що з технічної точки зору були деякі спроби генерувати зображення та відео за допомогою штучного інтелекту. Наприклад, Google позначатиме кожен штучний інтелект. -генерований образ, створений його інструментами.
«Технічно його легко ідентифікувати, і він не впливає на користувачів. Проте зміст тексту все ще вивчається», — сказав Лі Санпін.
Контроль ШІ завжди в дорозі
Guosen Securities вважає, що оскільки вітчизняні інтернет-компанії, такі як Baidu, 360, Ali, Huawei та Tencent, випускають або планують випустити великомасштабні моделі, додатки, пов’язані зі штучним інтелектом, поступово зростатимуть. З огляду на ризик зловживання штучним інтелектом безпека даних, криптографія та нагляд за штучним інтелектом є важливими напрямками технологічного розвитку.
Насправді моя країна завжди надала великого значення нагляду за ШІ.
10 січня 2023 року набуло чинності «Положення про адміністрування інформаційних послуг поглибленого синтезу мережі Інтернет» (далі – Положення). У «Положеннях» пояснюється, що послуги, які надають такі функції, як інтелектуальний діалог, синтетичний людський голос, створення обличчя та захоплюючі віртуальні сцени, які генерують або суттєво змінюють інформаційний вміст, мають бути помітно позначені, щоб уникнути плутанини або помилкової ідентифікації. Жодна організація чи окрема особа не має права використовувати технічні засоби для видалення, зміни чи приховування відповідних знаків.
11 квітня Управління кіберпростору Китаю випустило «Заходи щодо адміністрування послуг генеративного штучного інтелекту (проект для коментарів)» (надалі «Заходи»), вперше зосереджуючись на генеративному ШІ та додатково роз’яснюючи правові межі та відповідальні особи. «Заходи» пропонують організаціям і окремим особам, які використовують продукти генеративного штучного інтелекту для надання таких послуг, як чат і створення тексту, зображень і звуку, включно з організаціями та окремими особами, які допомагають іншим створювати текст, зображення і звук самостійно, надаючи програмовані інтерфейси тощо, повинні взяти на себе відповідальність виробника вмісту, створеного цим продуктом. Постачальники повинні нести відповідальність за легітимність даних попереднього навчання та оптимізованих джерел даних навчання продуктів генеративного штучного інтелекту.
«З точки зору нагляду за галуззю штучного інтелекту існують невирішені проблеми, такі як незавершені відповідні закони, нормативні акти та стандартні системи, відсутність системи нагляду зверху вниз, координованої кількома департаментами, і зворотна технологія нагляду». Гуо Тао зазначив, що відповідні урядові департаменти необхідно встановити та вдосконалити AIGC R&D та застосувати відповідні закони, правила та стандартні системи, створити або вдосконалити систему етичної перевірки та систему нагляду, посилити нагляд за технологічними компаніями, сценаріями застосування та користувачами, побудувати багатосторонню платформу спільного управління , а також сприяти здоровому та сталому розвитку промисловості AIGC.