Ошибка ChatGPT раскрывает предполагаемую китайскую кампанию по дискредитации премьер-министра Японии

robot
Генерация тезисов в процессе

( MENAFN- AsiaNet News )

Подозреваемая скрытая операция влияния, предположительно связанная с китайскими властями, была раскрыта неожиданным образом — через неправильное использование ChatGPT в качестве личного дневника или «журнала». Согласно сообщениям, кампания была обнаружена после того, как пользователь случайно раскрыл чувствительные оперативные детали во время взаимодействия с ИИ-чатботом, что позволило исследователям из OpenAI выявить и остановить деятельность.

Обнаруженная операция была частью более широкой попытки формировать глобальные нарративы и проводить целенаправленные дезинформационные кампании. Одной из ключевых целей, по сообщениям, было создание и доработка контента, направленного на дискредитацию известных международных фигур, включая высокопоставленного японского политика. Пользователь использовал ChatGPT для составления, редактирования и полировки сообщений, которые затем могли быть распространены через социальные сети в рамках скоординированной пропагандистской кампании.

Раскрытая секретная операция

Особенность этого случая заключалась в том, как именно была раскрыта операция. Вместо использования высокозащищённых или зашифрованных каналов, человек воспринимал взаимодействия с ChatGPT как постоянную запись планов, фактически документируя намерения, стратегии и нарративы внутри системы. Эта критическая ошибка позволила механизмам мониторинга OpenAI выявить признаки злоупотреблений, что в итоге привело к блокировке аккаунта и прерыванию кампании.

Результаты исследований OpenAI показывают, что инструменты искусственного интеллекта всё чаще используются как в законных, так и в злонамеренных целях. В данном случае чатбот использовался не для непосредственного осуществления кампании, а для помощи в создании и доработке контента — демонстрируя, как ИИ может выступать в роли усилителя влияния. Однако встроенные системы безопасности предотвратили выполнение явно вредоносных задач, и злоупотребление было обнаружено до его полного осуществления.

Инцидент является частью более широкой тенденции, зафиксированной в докладах о угрозах OpenAI, в которых описываются различные попытки злоумышленников использовать технологии ИИ. Эти попытки варьируются от политической пропаганды и манипуляций в социальных сетях до мошенничества и схем имитации. Хотя многие такие операции остаются небольшими по масштабу, их сложность и частота постоянно растут, вызывая опасения по поводу роли ИИ в глобальной информационной войне.

Эксперты отмечают, что этот случай подчеркивает как риски, так и встроенную ответственность систем ИИ. Хотя инструменты вроде ChatGPT могут быть использованы в злонамеренных целях, они также оставляют цифровые следы, которые при наличии соответствующих мер безопасности могут раскрыть злоупотребления. Случай случайного раскрытия служит напоминанием о том, что даже скрытые операции могут быть разоблачены из-за простых ошибок в всё более контролируемой цифровой среде.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.34KДержатели:2
    0.00%
  • РК:$2.29KДержатели:1
    0.00%
  • РК:$0.1Держатели:1
    0.00%
  • РК:$2.34KДержатели:2
    0.14%
  • РК:$2.33KДержатели:2
    0.07%
  • Закрепить