Подозреваемая скрытая операция влияния, предположительно связанная с китайскими властями, была раскрыта неожиданным образом — через неправильное использование ChatGPT в качестве личного дневника или «журнала». Согласно сообщениям, кампания была обнаружена после того, как пользователь случайно раскрыл чувствительные оперативные детали во время взаимодействия с ИИ-чатботом, что позволило исследователям из OpenAI выявить и остановить деятельность.
Обнаруженная операция была частью более широкой попытки формировать глобальные нарративы и проводить целенаправленные дезинформационные кампании. Одной из ключевых целей, по сообщениям, было создание и доработка контента, направленного на дискредитацию известных международных фигур, включая высокопоставленного японского политика. Пользователь использовал ChatGPT для составления, редактирования и полировки сообщений, которые затем могли быть распространены через социальные сети в рамках скоординированной пропагандистской кампании.
Раскрытая секретная операция
Особенность этого случая заключалась в том, как именно была раскрыта операция. Вместо использования высокозащищённых или зашифрованных каналов, человек воспринимал взаимодействия с ChatGPT как постоянную запись планов, фактически документируя намерения, стратегии и нарративы внутри системы. Эта критическая ошибка позволила механизмам мониторинга OpenAI выявить признаки злоупотреблений, что в итоге привело к блокировке аккаунта и прерыванию кампании.
Результаты исследований OpenAI показывают, что инструменты искусственного интеллекта всё чаще используются как в законных, так и в злонамеренных целях. В данном случае чатбот использовался не для непосредственного осуществления кампании, а для помощи в создании и доработке контента — демонстрируя, как ИИ может выступать в роли усилителя влияния. Однако встроенные системы безопасности предотвратили выполнение явно вредоносных задач, и злоупотребление было обнаружено до его полного осуществления.
Инцидент является частью более широкой тенденции, зафиксированной в докладах о угрозах OpenAI, в которых описываются различные попытки злоумышленников использовать технологии ИИ. Эти попытки варьируются от политической пропаганды и манипуляций в социальных сетях до мошенничества и схем имитации. Хотя многие такие операции остаются небольшими по масштабу, их сложность и частота постоянно растут, вызывая опасения по поводу роли ИИ в глобальной информационной войне.
Эксперты отмечают, что этот случай подчеркивает как риски, так и встроенную ответственность систем ИИ. Хотя инструменты вроде ChatGPT могут быть использованы в злонамеренных целях, они также оставляют цифровые следы, которые при наличии соответствующих мер безопасности могут раскрыть злоупотребления. Случай случайного раскрытия служит напоминанием о том, что даже скрытые операции могут быть разоблачены из-за простых ошибок в всё более контролируемой цифровой среде.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Ошибка ChatGPT раскрывает предполагаемую китайскую кампанию по дискредитации премьер-министра Японии
( MENAFN- AsiaNet News )
Подозреваемая скрытая операция влияния, предположительно связанная с китайскими властями, была раскрыта неожиданным образом — через неправильное использование ChatGPT в качестве личного дневника или «журнала». Согласно сообщениям, кампания была обнаружена после того, как пользователь случайно раскрыл чувствительные оперативные детали во время взаимодействия с ИИ-чатботом, что позволило исследователям из OpenAI выявить и остановить деятельность.
Обнаруженная операция была частью более широкой попытки формировать глобальные нарративы и проводить целенаправленные дезинформационные кампании. Одной из ключевых целей, по сообщениям, было создание и доработка контента, направленного на дискредитацию известных международных фигур, включая высокопоставленного японского политика. Пользователь использовал ChatGPT для составления, редактирования и полировки сообщений, которые затем могли быть распространены через социальные сети в рамках скоординированной пропагандистской кампании.
Раскрытая секретная операция
Особенность этого случая заключалась в том, как именно была раскрыта операция. Вместо использования высокозащищённых или зашифрованных каналов, человек воспринимал взаимодействия с ChatGPT как постоянную запись планов, фактически документируя намерения, стратегии и нарративы внутри системы. Эта критическая ошибка позволила механизмам мониторинга OpenAI выявить признаки злоупотреблений, что в итоге привело к блокировке аккаунта и прерыванию кампании.
Результаты исследований OpenAI показывают, что инструменты искусственного интеллекта всё чаще используются как в законных, так и в злонамеренных целях. В данном случае чатбот использовался не для непосредственного осуществления кампании, а для помощи в создании и доработке контента — демонстрируя, как ИИ может выступать в роли усилителя влияния. Однако встроенные системы безопасности предотвратили выполнение явно вредоносных задач, и злоупотребление было обнаружено до его полного осуществления.
Инцидент является частью более широкой тенденции, зафиксированной в докладах о угрозах OpenAI, в которых описываются различные попытки злоумышленников использовать технологии ИИ. Эти попытки варьируются от политической пропаганды и манипуляций в социальных сетях до мошенничества и схем имитации. Хотя многие такие операции остаются небольшими по масштабу, их сложность и частота постоянно растут, вызывая опасения по поводу роли ИИ в глобальной информационной войне.
Эксперты отмечают, что этот случай подчеркивает как риски, так и встроенную ответственность систем ИИ. Хотя инструменты вроде ChatGPT могут быть использованы в злонамеренных целях, они также оставляют цифровые следы, которые при наличии соответствующих мер безопасности могут раскрыть злоупотребления. Случай случайного раскрытия служит напоминанием о том, что даже скрытые операции могут быть разоблачены из-за простых ошибок в всё более контролируемой цифровой среде.