Anthropic надала Claude Code більше повноважень, але тримає його на короткому повідку

Anthropic надала Claude Code більше повноважень, але тримає його на короткому повідку 1

Сьогоднішній світ розробки з використанням штучного інтелекту (ШІ) часто зводиться до вибору: або невпинно контролювати кожну дію моделі, або ризикувати, дозволивши їй діяти без нагляду. Компанія Anthropic, схоже, має намір усунути цей компроміс. Їхнє останнє оновлення для Claude прагне надати ШІ можливість самостійно визначати безпечні дії, звісно, з певними обмеженнями.

Еволюція автономності в ШІ-інструментах

Цей крок відображає ширшу тенденцію в галузі, де інструменти на базі ШІ все частіше розробляються для автономної роботи без необхідності постійного людського схвалення. Основне завдання тут – знайти золоту середину між швидкістю виконання та контролем. Надмірні запобіжники уповільнюють процес, тоді як їхня нестача може зробити системи небезпечними та непередбачуваними. Новий “автоматичний режим” від Anthropic, який наразі перебуває у фазі дослідницького попереднього перегляду (тобто доступний для тестування, але ще не є фінальним продуктом), є черговою спробою вирішити цю дилему.

Як працює “автоматичний режим”

В основі “автоматичного режиму” лежать вбудовані механізми безпеки ШІ, які перевіряють кожну дію перед її виконанням. Ці механізми аналізують дії на предмет ризикованої поведінки, яку не запитував користувач, а також на ознаки “prompt injection” – типу атаки, коли шкідливі інструкції приховуються в даних, що обробляються ШІ, змушуючи його виконувати небажані команди. Усі безпечні дії будуть виконуватися автоматично, тоді як ризиковані – блокуватимуться.

По суті, це розширення існуючої команди Claude Code “dangerously-skip-permissions”, яка передає всі повноваження щодо прийняття рішень ШІ, але з доданим рівнем безпеки.

Наслідування та інновації

Ця функція вибудовується на хвилі інструментів для автономного кодування від таких компаній, як GitHub та OpenAI, які вже можуть виконувати завдання від імені розробників. Однак Anthropic робить крок далі, перекладаючи відповідальність за прийняття рішення про необхідність запиту дозволу з користувача на самого ШІ.

Anthropic поки що не розкрила конкретні критерії, які використовує її шар безпеки для розрізнення безпечних та ризикованих дій. Це може викликати запитання у розробників, які, ймовірно, захочуть глибше розібратися в цих деталях перед широким впровадженням функції. (TechCrunch звернувся до компанії за додатковою інформацією з цього приводу.)

Контекст нових розробок Anthropic

“Автоматичний режим” з’являється невдовзі після запуску Claude Code Review – автоматичного інструменту для перевірки коду, призначеного для виявлення помилок ще до того, як вони потраплять у кодову базу, та Dispatch for Cowork, що дозволяє користувачам делегувати завдання ШІ-агентам для виконання роботи від їхнього імені.

“Автоматичний режим” буде доступний для корпоративних користувачів та через API протягом найближчих днів. Компанія зазначає, що наразі він працює лише з Claude Sonnet 4.6 та Opus 4.6. Також рекомендується використовувати нову функцію в “ізольованих середовищах” – спеціальних “пісочницях”, відокремлених від виробничих систем, що обмежує потенційну шкоду у разі виникнення проблем.

Думка ІТ-Блогу: Впровадження “автоматичного режиму” Anthropic значно зменшує бар’єр входу для розробників, дозволяючи їм зосередитися на логіці, а не на мікроменеджменті ШІ. Однак, ключовим для його успіху буде прозорість критеріїв безпеки та надійність механізмів захисту від потенційних зловживань.

Подробиці можна знайти на сайті: techcrunch.com

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *