
Найсучасніша модель штучного інтелекту від Anthropic, Claude Opus 4.6, проаналізувала вихідні коди відкритих проєктів і виявила безліч прогалин у безпеці: понад 500 вразливостей високого ступеня критичності, які не були помічені протягом десятиліть експертного аналізу та мільйонів годин фазингу. Кожна знахідка ретельно перевірялася перед оприлюдненням.
Через п’ятнадцять днів компанія представила комерційний продукт — Claude Code Security.
Керівники відділів безпеки, які відповідають за багатомільйонні бюджети управління вразливостями, ймовірно, почують від своїх рад директорів під час наступної реорганізації типове запитання: “Як нам запровадити сканування на основі логічного аналізу, перш ніж це зроблять зловмисники?”. Адже, як показав аналіз Anthropic, навіть просте застосування ШІ до відкритого коду може допомогти виявити, а в руках кіберзлочинців – і використати, недоліки безпеки.
Важливішим за кількість знайдених проблем є підхід: як ваші інструменти та процеси розподіляють завдання між сканерами, що базуються на шаблонах, та аналізом, що ґрунтується на логіці. CodeQL та інструменти на його основі порівнюють код із відомими шаблонами.
Claude Code Security, представлений Anthropic 20 лютого як обмежений дослідницький проєкт, аналізує код подібно до того, як це робить дослідник безпеки-людина. Він відстежує потік даних у застосунку та виявляє помилки в бізнес-логіці та контролі доступу, які не покриваються жодними наборами правил.
Розмова, яку лідери безпеки мають провести вже цього тижня
П’ятсот нововиявлених “нульових днів” — це не просто тривожна статистика, а вагомий аргумент для перегляду бюджету на безпеку коду.
Можливості логічного аналізу, які демонструє Claude Code Security, та їхні неминучі конкуренти, мають стати центральними в процесі закупівель. Статичний аналіз безпеки застосунків (SAST) виявляє відомі класи вразливостей. Сканери, що базуються на логіці, знаходять те, для чого співставлення з шаблонами ніколи не було призначене. Обидва підходи мають своє місце.
Anthropic опублікувала результати дослідження “нульових днів” 5 лютого. Через п’ятнадцять днів вони випустили продукт. Хоча це та сама модель та її можливості, тепер вони доступні клієнтам Enterprise та Team.
Що Claude вміє, а CodeQL – ні
GitHub вже багато років пропонує сканування на основі CodeQL через Advanced Security, а в серпні 2024 року додав Copilot Autofix для генерації пропозицій щодо виправлення сповіщень за допомогою великих мовних моделей. Команди безпеки покладаються на це. Однак межа виявлення визначається набором правил CodeQL, і все, що знаходиться за її межами, залишається невидимим.
Claude Code Security розширює ці межі, генеруючи та перевіряючи власні гіпотези щодо потоків даних та керування в застосунку, включаючи випадки, які не описуються жодним існуючим набором правил. CodeQL вирішує завдання, для якого був створений: аналіз потоку даних у межах попередньо визначених запитів. Він повідомляє, чи досягає “заражений” вхідний потік небезпечної функції.
CodeQL не призначений для автономного аналізу історії комітів проєкту, виведення логіки неповного виправлення, відстеження цієї логіки в іншому файлі, а потім складання робочого експлойту “end-to-end”. Claude саме це й зробив з GhostScript, OpenSC та CGIF, щоразу використовуючи різні стратегії логічного аналізу.
“Справжній зсув полягає від співставлення шаблонів до генерації гіпотез”, — зазначила Меррітт Беар, CSO в Enkrypt AI, радник Andesite та AppOmni, а раніше заступниця CISO в AWS, в ексклюзивному інтерв’ю VentureBeat. “Це стрибкоподібне збільшення потужності виявлення, яке вимагає настільки ж надійних людських та технічних засобів контролю”.
Три приклади з опублікованої методології Anthropic показують, де закінчується співставлення шаблонів і починається генерація гіпотез.
- Аналіз історії комітів у різних файлах. GhostScript — це широко використовувана утиліта для обробки файлів PostScript та PDF. Фазинг нічого не виявив, як і ручний аналіз. Потім Claude проаналізував історію комітів Git, знайшов виправлення, яке додало перевірку меж стека для обробки шрифтів у файлі `gstype1.c`, і перевернув логіку: якщо виправлення було потрібне там, то кожен інший виклик цієї функції без виправлення все ще був уразливим. У файлі `gdevpsfx.c`, який є зовсім іншим, виклик тієї ж функції не мав перевірки меж, яка була виправлена в іншому місці. Claude створив робочий прототип збою. Жодне правило CodeQL сьогодні не описує таку помилку. Після цього розробники випустили виправлення.
- Аналіз попередніх умов, до яких фазери не можуть дістатися. OpenSC обробляє дані смарт-карт. Стандартні підходи тут також не спрацювали, тому Claude шукав у репозиторії виклики функцій, які часто бувають уразливими, і знайшов місце, де кілька операцій `strcat` виконувалися послідовно без перевірки довжини вихідного буфера. Фазери рідко досягали цього шляху коду, оскільки цьому перешкоджало занадто багато попередніх умов. Claude проаналізував, які фрагменти коду виглядають цікавими, створив переповнення буфера та довів вразливість.
- Випадки на рівні алгоритму, які не ловляться жодною метрикою покриття. CGIF — це бібліотека для обробки GIF-файлів. Вразливість вимагала розуміння того, як стиснення LZW будує словник токенів. CGIF припускав, що стиснений вивід завжди буде меншим за нестиснений ввід, що майже завжди вірно. Claude усвідомив, що якщо словник LZW заповниться і спричинить скидання, стиснений вивід може перевищити розмір нестисненого, спричинивши переповнення буфера. Навіть 100% покриття гілок не виявило б цього. Помилка вимагає специфічної послідовності операцій, яка реалізує граничний випадок у самому алгоритмі стиснення. Генерація випадкових вхідних даних майже ніколи його не створює. Claude — створив.
Беар бачить у цьому ширшу картину. “Проблема з логічним аналізом полягає не в точності, а в самостійності”, — сказала вона VentureBeat. “Коли система може формувати гіпотези та переслідувати їх, ви переходите від інструменту пошуку до чогось, що може досліджувати ваше середовище способами, які важче передбачити та обмежити”.
Як Anthropic підтвердила понад 500 знахідок
Anthropic помістила Claude в ізольовану віртуальну машину зі стандартними утилітами та інструментами аналізу вразливостей. Червона команда не надавала жодних спеціальних інструкцій, кастомних інструментів чи специфічних запитів. Тільки модель і код.
Червона команда зосередилася на вразливостях пошкодження пам’яті, оскільки їх найлегше об’єктивно підтвердити. Моніторинг збоїв та санітайзери адрес не залишають місця для сумнівів. Claude самостійно фільтрував свої результати, видаляв дублікати та перепризначав пріоритети, перш ніж до справи бралися дослідники-люди. Коли кількість підтверджених знахідок продовжувала зростати, Anthropic залучила зовнішніх фахівців з безпеки для перевірки результатів та написання виправлень.
Кожен цільовий об’єкт був проєктом з відкритим кодом, що лежить в основі корпоративних систем та критичної інфраструктури. Багато з них підтримуються невеликими командами волонтерів, а не фахівців з безпеки. Коли вразливість залишається в одному з таких проєктів десятиліттями, кожен продукт, що його використовує, успадковує ризик.
Anthropic не почала з випуску продукту. Оборонні дослідження тривають більше року. Компанія брала участь у змаганнях Capture-the-Flag, де Claude посів місце в топ-3% на PicoCTF global, розв’язав 19 із 20 завдань на HackTheBox AI vs Human CTF, та посів 6-те місце з 9 команд у захисті реальних мереж проти атак червоної команди на Western Regional CCDC.
Anthropic також співпрацювала з Тихоокеанською північно-західною національною лабораторією (Pacific Northwest National Laboratory) для тестування Claude на симуляції водоочисної споруди. Дослідники PNNL оцінили, що модель завершила емуляцію противника за три години. Традиційний процес займає кілька тижнів.
Питання подвійного призначення, якого не можуть уникнути лідери безпеки
Логіка, яка знаходить вразливість, може допомогти зловмиснику її використати. Лідер команди Frontier Red Team Логан Грем відкрито визнав це у розмові з Шэрон Голдман з Fortune. Він розповів Fortune, що моделі тепер можуть самостійно досліджувати кодові бази та швидше просуватися в розслідуваннях, ніж молодший дослідник безпеки.
Габбі Кертіс, керівниця відділу комунікацій Anthropic, розповіла VentureBeat в ексклюзивному інтерв’ю, що компанія створила Claude Code Security, щоб зробити оборонні можливості більш доступними, “нахиляючи ваги на користь захисників”. Вона також прямо зазначила про напруженість: “Та сама логіка, яка допомагає Claude знаходити та виправляти вразливості, може допомогти зловмиснику їх експлуатувати, тому ми свідомо підходимо до того, як це випускаємо”.
В інтерв’ю з понад 40 CISOs з різних галузей VentureBeat виявила, що формальні керівні принципи для інструментів логічного сканування є радше винятком, ніж правилом. Найпоширенішою відповіддю було те, що ця сфера вважалася настільки новою, що багато CISOs не очікували появи таких можливостей так рано у 2026 році.
Питання, на яке кожен директор з безпеки повинен відповісти перед розгортанням такого інструменту: якщо я дам своїй команді інструмент, який знаходить “нульові дні” через логіку, чи не розширив я ненавмисно мою внутрішню поверхню загроз?
“Ви не озброїли свою внутрішню поверхню, ви її виявили”, — сказала Беар VentureBeat. “Ці інструменти можуть бути корисними, але вони також можуть швидше та масштабованіше виявити приховані ризики. Той самий інструмент, який знаходить “нульові дні” для захисту, може виявити прогалини у вашій моделі загроз. Пам’ятайте, що більшість вторгнень відбуваються не через “нульові дні”, а через неправильні налаштування”.
“Окрім ризиків доступу та шляхів атаки, існує ризик інтелектуальної власності”, — сказала вона. “Не тільки витік, а й трансформація. Моделі логічного аналізу можуть засвоювати та перефразовувати власницькі ідеї таким чином, що розмиває межу між використанням та витоком”.
Випуск свідомо обмежений. Тільки для клієнтів Enterprise та Team, через обмежений дослідницький проєкт. Розробники відкритого коду отримують безкоштовний прискорений доступ. Знайдені вразливості проходять багатоетапну самоперевірку перед тим, як потрапити до аналітика, з позначками рівня критичності та оцінками впевненості. Кожне виправлення вимагає схвалення людини.
Anthropic також вбудувала механізми виявлення безпосередньо в модель. У блозі, що детально описує захисні заходи, компанія розповіла про розгортання “зондів”, які вимірюють активацію моделі під час генерації відповідей, з новими спеціалізованими кібер-зондами, призначеними для відстеження потенційного зловживання. З боку забезпечення безпеки Anthropic розширює свої можливості реагування, включаючи втручання в реальному часі, таке як блокування трафіку, що ідентифікується як шкідливий.
Грем прямо заявив Axios: моделі надзвичайно добре знаходять вразливості, і він очікує, що вони стануть ще кращими. VentureBeat звернувся до Anthropic із запитами щодо рівня помилкових спрацьовувань до і після самоперевірки, кількості розкритих вразливостей з виправленнями порівняно з тими, що ще перебувають на стадії розгляду, та специфічних заходів безпеки, які відрізняють використання зловмисниками від використання захисниками. Провідний дослідник проєкту з 500 вразливостями був недоступний, і компанія відмовилася ділитися конкретними механізмами виявлення зловмисників, щоб не розкривати цю інформацію потенційним загрозам.
“Наступальні та оборонні можливості зливаються”, — сказала Беар. “Диференціатором є нагляд. Якщо ви не можете аудитувати та обмежувати використання інструменту, ви створили ще один ризик”.
Ця перевага у швидкості не є автоматичною вигодою для захисників. Вона надається тому, хто її adopтує першим. Директори з безпеки, які діють швидко, встановлюють правила гри.
Anthropic не самотня. Шаблон повторюється.
Дослідник безпеки Шон Хілан використав модель o3 від OpenAI без кастомних інструментів чи фреймворків агентів, щоб виявити CVE-2025-37899 — раніше невідому вразливість “use-after-free” в реалізації SMB ядра Linux. Модель проаналізувала понад 12 000 рядків коду та виявила гонку станів, яку традиційні інструменти статичного аналізу послідовно пропускали, оскільки для її виявлення потрібно розуміти взаємодію паралельних потоків між з’єднаннями.
Окремо, стартап з безпеки ШІ AISLE виявив усі 12 “нульових днів”, оголошених у квітневому патчі безпеки OpenSSL 2026 року, включаючи рідкісну знахідку високого рівня критичності (CVE-2025-15467, переповнення буфера стека під час парсингу повідомлень CMS, яке потенційно може бути експлуатоване віддалено без дійсних ключових матеріалів). Співзасновник і головний науковий співробітник AISLE Станіслав Форт повідомив, що система ШІ його команди відповідальна за 13 із 14 загальних CVE OpenSSL, призначених у 2025 році. OpenSSL є однією з найретельніше перевірених криптографічних бібліотек у світі. Фазери працювали з нею роками. ШІ виявив те, для чого вони не були розроблені.
Вікно можливостей вже відкрите
Ці 500 вразливостей містяться у проєктах з відкритим кодом, від яких залежать корпоративні застосунки. Anthropic розкриває інформацію та випускає виправлення, але саме у проміжку між виявленням та впровадженням цих виправлень діють зловмисники.
Ті самі покращення моделі, що лежать в основі Claude Code Security, доступні будь-кому з доступом до API.
Якщо ваша команда оцінює ці можливості, обмежений дослідницький проєкт — це правильне місце для старту, з чітко визначеними правилами обробки даних, журналюванням аудиту та узгодженими критеріями успіху.
Порада від ІТ-Блог: Це оновлення є надзвичайно важливим для всіх, хто займається розробкою або безпекою програмного забезпечення. Новий інструмент Claude Code Security від Anthropic використовує передові технології штучного інтелекту для виявлення вразливостей, які раніше залишалися непоміченими. Його здатність аналізувати код на основі логіки, а не лише шаблонів, відкриває нові горизонти в захисті від кіберзагроз. Якщо ви прагнете підвищити безпеку своїх проєктів, варто звернути увагу на цю інновацію, адже вона може значно полегшити виявлення та виправлення критичних помилок до того, як їх знайдуть зловмисники.
Інформація підготовлена на основі матеріалів: venturebeat.com
