Дослідники штучного інтелекту попереджають про небезпеку на шляху до виходу з дверей

Вчені штучного інтелекту попереджають про небезпеку на виході

Аналіз Аллісон Моро, CNN

Середа, 18 лютого 2026 року о 22:21 за Гринвічем+9 5 хв читання

Кілька відомих співробітників у галузі штучного інтелекту вирішили піти у відставку, деякі явно попереджаючи, що компанії, в яких вони працювали, рухаються занадто швидко і недооцінюють недоліки технології. - d3sign/Moment RF/Getty Images

_Версія цієї історії з’явилася у розсилці CNN Business’ Nightcap. Щоб отримати її у вашій пошті, підпишіться безкоштовно _тут.

“Світ у небезпеці,” попередив колишній керівник команди досліджень безпеки Anthropic, коли він йшов у відставку. Дослідник OpenAI, який також збирається піти, сказав, що технологія має “потенціал для маніпулювання користувачами у способах, які ми не маємо інструментів для розуміння, не кажучи вже про запобігання.”

Вони є частиною хвилі дослідників і керівників у галузі штучного інтелекту, які не просто залишають своїх роботодавців — вони голосно подають сигнал тривоги, привертаючи увагу до того, що вони вважають яскраво червоними прапорами.

Хоча Кремнієва долина відома високим оборотом кадрів, останні зміни відбуваються на тлі змагання лідерів ринку, таких як OpenAI і Anthropic, за вихід на біржу, що може прискорити їхній ріст і водночас викликати інтенсивний контроль за їхньою діяльністю.

За останні кілька днів кілька відомих співробітників у галузі штучного інтелекту вирішили піти у відставку, деякі явно попереджаючи, що компанії, в яких вони працювали, рухаються занадто швидко і недооцінюють недоліки технології.

Зої Хітціг, дослідниця OpenAI протягом останніх двох років, оголосила про свою відставку у статті в The New York Times, посилаючись на “глибокі застереження” щодо нової стратегії реклами OpenAI. Хітціг, яка попереджала про потенціал ChatGPT маніпулювати користувачами, сказала, що архів даних користувачів чатбота, зібраний на основі “медичних страхів, їхніх проблем у стосунках, їхніх вірувань про Бога і життя після смерті,” створює етичну дилему саме тому, що люди вважали, що спілкуються з програмою без прихованих мотивів.

Критика Хітціг з’являється на тлі повідомлень платформи Platformer, яка повідомляє, що OpenAI розформувала свою команду “вирівнювання місії,” створену у 2024 році для просування цілі компанії — забезпечити, щоб усе людство отримало користь від прагнення до “штучного загального інтелекту” — гіпотетичного AI, здатного на людський рівень мислення.

OpenAI не одразу відповіло на запит про коментар.

Голова команди досліджень безпеки Anthropic сказав, що “протягом усього мого часу тут я неодноразово бачив, наскільки важко справді дозволити нашим цінностям керувати нашими діями.” - Габбі Джонс/Bloomberg/Getty Images

Також цього тижня Мрінанк Шарма, керівник команди досліджень безпеки Anthropic, опублікував таємничого листа у вівторок, оголошуючи про своє рішення залишити компанію і попереджаючи, що “світ у небезпеці.”

Лист Шарми містив лише розпливчасті посилання на Anthropic, компанію, яка створила чатбота Клода. Він не пояснив, чому йде, але зазначив, що “мені стало зрозуміло, що настав час рухатися далі,” і що “протягом усього мого часу тут я неодноразово бачив, наскільки важко справді дозволити нашим цінностям керувати нашими діями.”

Anthropic у заяві CNN повідомила, що вдячна за роботу Шарми у просуванні досліджень безпеки AI. Компанія зазначила, що він не був керівником безпеки і не відповідав за ширші заходи безпеки у компанії.

Історія триває  

Тим часом, у xAI, двоє співзасновників пішли у відставку за 24 години цього тижня, оголосивши про свої відходи у X. Це залишає у компанії лише половину засновників, яка зливається з SpaceX Ілона Маска для створення найціннішої приватної компанії у світі. Щонайменше п’ять інших співробітників xAI оголосили про свої відходи у соцмережах за минулий тиждень.

Поки що неясно, чому саме останні співзасновники xAI залишили компанію, і xAI не відповіло на запит про коментар. У соціальній мережі у середу Маск заявив, що xAI “був реорганізований” для прискорення зростання, що “на жаль, вимагало розлучитися з деякими людьми.”

Хоча не дивно, що висококваліфіковані фахівці змінюють місце роботи у такій новій галузі, як AI, масштаб відходів за такий короткий період у xAI виділяється.

Стартап зіткнувся з глобальним спротивом через свого чатбота Grok, який дозволяв генерувати неузгоджені порнографічні зображення жінок і дітей протягом тижнів, перш ніж команда втрутилася, щоб зупинити його. Grok також був схильний до створення антисемітських коментарів у відповідь на запити користувачів.

Інші недавні відходи підкреслюють напруженість між деякими дослідниками, які турбуються про безпеку, і топ-менеджерами, які прагнуть отримати прибуток.

У вівторок The Wall Street Journal повідомила, що OpenAI звільнила одного з своїх провідних керівників з безпеки після того, як вона висловила опозицію щодо запуску “дорослого режиму,” що дозволяє порнографічний контент у ChatGPT. OpenAI звільнила керівника безпеки Раяна Бейрмістера через звинувачення у дискримінації чоловіка — звинувачення, яке Бейрмістер назвав “абсолютно хибним.”

Дослідниця OpenAI оголосила про свою відставку у середу, посилаючись на “глибокі застереження” щодо нової стратегії реклами OpenAI. - Яап Арріенс/NurPhoto/Shutterstock

OpenAI повідомила журналістам, що її звільнення не пов’язане з “жодними питаннями, які вона піднімала під час роботи у компанії.”

Високопоставлені відходи були частиною історії AI з моменту появи ChatGPT у кінці 2022 року. Незабаром після цього Геффрі Гінтон, відомий як “Крестний батько AI,” залишив свою посаду у Google і почав пропагувати те, що він вважає екзистенційними ризиками AI, включаючи масові економічні потрясіння у світі, де багато хто “більше не зможе знати, що є правдою.”

Прогнози апокаліпсису поширюються — включно з серед керівників AI, які мають фінансовий стимул підсилювати потужність своїх продуктів. Один із таких прогнозів став вірусним цього тижня, коли CEO HyperWrite Мэтт Шумер опублікував майже 5000-словний виклад про те, як останні моделі AI вже зробили деякі технічні роботи застарілими.

“Ми говоримо вам про те, що вже сталося у наших власних роботах,” написав він, “і попереджаємо, що ви — наступні.”

Щоб отримати більше новин CNN і розсилок, створіть обліковий запис на CNN.com

Умови та Політика конфіденційності

Панель управління конфіденційністю

Більше інформації

XAI0,41%
GROK-2,02%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити