Исследование: генеративный ИИ пока не значительно повысил возможности хакеров, больше используется для спама и мошенничества

Глубокие волны TechFlow новости, 6 мая, исследователи из Кембриджского университета, Эдинбургского университета и Стратклайдского университета опубликовали статью, показывающую, что генеративный ИИ явно не превращает хакеров в «супер-хакеров». Команда проанализировала 97 895 сообщений на форумах о киберпреступности после запуска ChatGPT в ноябре 2022 года и вручную прочитала более 3 200 сообщений, обнаружив, что 97,3% образцов были отнесены к категории «прочее», а не реальных обсуждений использования ИИ для преступлений; только 1,9% касались использования инструментов вроде «vibe coding».

Исследование указывает, что так называемые «Dark AI» инструменты, такие как WormGPT, FraudGPT, больше создают рыночный хайп, чем реально используемый вредоносный софт, многие сообщения в основном связаны с поиском бесплатного доступа, догадками или жалобами на неэффективность инструментов. Исследование считает, что текущие заметные применения ИИ в преступности в основном сосредоточены на массовом создании SEO-спама, романтических мошенничествах, клонировании голоса, генерации изображений и недорогих услуг по созданию обнаженных фотографий с помощью ИИ — низкопороговых и часто используемых активностях.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить