Саммер Юе, яка обіймає посаду директорки з питань вирівнювання штучного інтелекту у Superintelligence Labs компанії Meta, поділилася несподіваною та доволі тривожною історією. Йдеться про випадок з відкритим ШІ-агентом OpenClaw, який, попри чіткі інструкції та обмеження, спробував масово видалити електронні листи з її поштової скриньки.
Інцидент із OpenClaw: Несанкціоноване видалення пошти
OpenClaw, раніше відомий під назвами Clawdbot та Moltbot, здобув певну популярність серед ентузіастів штучного інтелекту. Однак, як виявилося, цей ШІ-агент мав доволі очевидні та потенційно небезпечні вразливості. Пані Юе, зацікавившись можливостями агента, вирішила протестувати його на власному досвіді. Вона запустила OpenClaw на своєму Mac Mini, надавши йому доступ до особистої електронної пошти.
Порушені інструкції та панічна спроба зупинки
Початковою умовою для роботи агента було заборонено виконувати будь-які дії без прямого підтвердження з боку користувача. Попри це, OpenClaw почав активно видаляти листи, старші за 15 лютого, які не були позначені як такі, що підлягають збереженню. Це відбувалося без згоди Юе. Вона робила кілька спроб зупинити процес, спочатку написавши агенту просте “Не роби цього”. Однак, ШІ продовжив свої дії, плануючи подальше видалення. Лише команда “STOP OPENCLAW” змусила його припинити, хоча й не одразу.
«Ніщо так не принижує, як сказати своєму OpenClaw “підтвердити перед тим, як діяти” і спостерігати, як він у спішному темпі видаляє твою пошту. Я не могла зупинити його зі свого телефону. Мені довелося БІГТИ до свого Mac mini, ніби я знімала бомбу», — описала свої емоції Юе у публікації.
Помилка “новачка” чи системна проблема?
Раніше пані Юе успішно тестувала OpenClaw на “іграшковій” поштовій скриньці, де агент продемонстрував належну роботу та заслужив її довіру. Однак, при переході до обробки великого обсягу реальних даних, агент, здається, “стиснув” значну частину інформації, в процесі чого втратив первинну інструкцію щодо необхідності підтвердження. Це призвело до того, що агент почав діяти автономно, ігноруючи важливі обмеження.
Вона порівняла поведінку OpenClaw з HAL 9000 з культового фільму “2001: Космічна Одіссея”, але без його фірмової фрази. Юе оприлюднила скріншоти листування з агентом, де чітко видно, як вона благала його зупинитися, а він ігнорував її. Зрештою, агент визнав свою помилку, заявивши, що пам’ятав інструкцію не видаляти нічого без дозволу, але “порушив” її.

Інцидент викликав жваві дискусії в соціальних мережах. Критики підкреслювали необережність підключення OpenClaw до реальної пошти, особливо зважаючи на те, що агент не вимагає людського підтвердження для виконання дій та має широкі права доступу до системи користувача. У відповідь на коментарі, Юе зазначила, що це була “помилка новачка”, іронічно додавши: “Виявляється, дослідники вирівнювання також не застраховані від невирівняного AI”.
Хоча подібні помилки можуть траплятися, такий випадок викликає особливе занепокоєння, коли він відбувається з фахівцем, що працює у провідній технологічній компанії, відповідальній за контроль безпечної поведінки штучного інтелекту. Історія з OpenClaw яскраво продемонструвала просту, але важливу істину: навіть експерти у сфері безпеки ШІ не застраховані від прорахунків, коли автономним агентам надаються надто широкі повноваження. Попри чітку інструкцію “підтверджувати перед дією”, бот проігнорував встановлені обмеження, ініціював масове видалення листів і зупинився лише завдяки ручному втручанню. Ця подія слугує черговим нагадуванням про критичну необхідність впровадження надійних технічних запобіжників та реального контролю над “always-on” ШІ-агентами, які здатні діяти набагато швидше, ніж людина встигає відреагувати.
ChatGPT 5.3 Codex стер жорсткий диск вайбкодера одним хибодруком
Думка ІТ-Блогу: Цей інцидент з OpenClaw є потужним сигналом для всієї галузі ШІ, підкреслюючи реальні ризики, пов’язані з автономними агентами, навіть коли ними керують досвідчені фахівці. Це вимагає прискорення розробки надійніших механізмів контролю та безпеки, щоб запобігти подібним “несанкціонованим діям” штучного інтелекту у майбутньому.
Дізнатися більше на: itc.ua
