
Відносини між одним із найприбутковіших і найвпливовіших розробників моделей штучного інтелекту в Кремнієвій долині, компанією Anthropic, та урядом США досягли переломного моменту в п’ятницю, 27 лютого 2026 року.
Президент Дональд Дж. Трамп та Білий дім опублікували в соціальних мережах розпорядження про негайне припинення використання всіма федеральними агентствами технологій від Anthropic, розробника потужних мовних моделей сімейства Claude. Це сталося після того, як переговори за контрактом, укладеним менш ніж два роки тому, нібито зірвалися через відмову Anthropic скасувати заборони на використання її технологій у повністю автономній зброї та масовому стеженні за громадянами США.
Слідом за президентом, міністр оборони Піт Хегсет сказав, що доручив Міністерству оборони позначити Anthropic як «ризик ланцюга постачань для національної безпеки». Це чорний список, який традиційно застосовується до іноземних супротивників, таких як Huawei або Kaspersky Lab.
Цей крок фактично розриває військовий контракт Anthropic на суму 200 мільйонів доларів і встановлює жорсткий шестимісячний термін для Міністерства оборони, розташованого в Пентагоні, щоб видалити Claude зі своїх систем.
Однак бізнес Anthropic поза державним сектором останнім часом стрімко зростає. Лише сервіс Claude Code менш ніж за рік після запуску перетворився на підрозділ з річним повторюваним доходом (ARR) понад 2,5 мільярда доларів. Цього місяця компанія оголосила про залучення 30 мільярдів доларів у рамках раунду Series G за оцінкою в 380 мільярдів доларів. Anthropic, по суті, самотужки спричинила значне падіння акцій у SaaS-секторі, випустивши плагіни та розширення для специфічних корпоративних і галузевих функцій, включаючи HR, дизайн, інженерію, операційну діяльність, фінансовий аналіз, інвестиційний банкінг, аналіз акцій, приватні інвестиції та управління капіталом.
Іронічно, але SaaS-компанії з різних галузей і секторів, такі як Salesforce, Spotify, Novo Nordisk, Thompson Reuters та інші, повідомляють про значне зростання продуктивності та ефективності завдяки високопродуктивним і ефективним моделям Claude від Anthropic, які демонструють найкращі результати на бенчмарках. Не буде перебільшенням сказати, що Anthropic є однією з найуспішніших лабораторій ШІ в США та світі.
Тож чому вона тепер вважається «ризиком ланцюга постачань для національної безпеки»?
Чому Пентагон визначає Anthropic як «ризик ланцюга постачань для національної безпеки» і чому саме зараз?
Розбіжності виникли через фундаментальну суперечку щодо «всіх законних видів використання». Пентагон вимагав необмеженого доступу до Claude для будь-яких місій, визначених як законні, тоді як генеральний директор Anthropic Даріо Амодеї не погодився поступитися щодо двох конкретних «червоних ліній», на які Пентагон раніше погодився під час укладання контракту у 2024 році: використання моделей Anthropic для масового стеження за громадянами Америки та повністю автономної летальної зброї.
Хегсет охарактеризував відмову як «пиху та зраду», тоді як Амодеї стверджував, що такі запобіжники необхідні для запобігання «ненавмисній ескалації або провалу місії». Він також зазначив (і, на думку автора, слушно), що «використання цих систем для масового внутрішнього стеження несумісне з демократичними цінностями».
Наслідки були негайними: Міністерство оборони наказало всім підрядникам та партнерам припинити будь-яку комерційну діяльність з Anthropic негайно. Водночас Пентагон має 180-денний термін для переходу до «більш патріотичних» постачальників. Проте, додаток Claude від Anthropic піднявся на вершину чартів Apple App Store, ставши другим найзавантажуванішим додатком, оскільки значна кількість споживачів, розробників, технічних працівників та лідерів у всьому світі поспішають підтримати Anthropic у її суперечці з Пентагоном.
Водночас основні конкуренти Anthropic вже прагнуть перехопити її бізнес військових контрактів у США. Генеральний директор OpenAI Сем Альтман щойно оголосив про угоду з Пентагоном, яка включає два схожі за звучанням «принципи безпеки», хоча ще незрозуміло, чи є це тією ж самою мовною формою, що й у контракті.
Раніше цього ж дня OpenAI оголосила про рекордне залучення 110 мільярдів доларів інвестицій від Amazon, NVIDIA та SoftBank.
Компанія xAI Ілона Маска також, за повідомленнями, підписала угоду про використання своєї моделі Grok у високосекретних системах, погодившись на стандарт «всі законні види використання», якого відмовилася Anthropic. Проте, зазначається, що модель оцінюється низько серед державних та військових службовців, які вже її використовують.
Тим часом Anthropic заявила про намір оскаржити це рішення в суді та заохотила своїх комерційних клієнтів продовжувати використовувати її продукти та послуги, за винятком військових проектів.
Що це означає для підприємств: імператив взаємодії
Для корпоративних технічних керівників «Бан Anthropic» є чітким сигналом, що виходить за межі конкретної політики адміністрації Трампа.
Незалежно від того, чи погоджуєтеся ви з етичною та юридичною позицією Anthropic (як я), чи з позицією Пентагону (остання оскаржується в суді та, за оцінками експертів, є слабкою), ключовий висновок залишається незмінним: взаємодія між моделями та незалежність від постачальника — перша означає здатність працювати з різними моделями ШІ, а друга — можливість систем залишатися функціональними при перемиканні між ними — є більш важливими, ніж будь-коли.
Якщо весь ваш робочий процес на основі агентів або клієнтський стек жорстко прив’язаний до API одного постачальника, ви не будете достатньо гнучкими, щоб відповідати вимогам ринку, де деякі потенційні клієнти, як-от військові чи уряд США, вимагають від вас використання або уникнення певних моделей як умови ваших контрактів з ними.
Найрозумнішим кроком зараз є не обов’язково натискати кнопку «видалити» для Claude — яка залишається найкращою моделлю для кодування та тонких міркувань, і, безумовно, може і повинна використовуватися для роботи поза межами військових та державних установ США — а забезпечити собі «теплий резерв».
Це означає використання рівнів оркестрації та стандартизованих форматів промптів, які дозволяють вам перемикатися між Claude, GPT-4o та Gemini 1.5 Pro без значного зниження продуктивності. Якщо ви не можете змінити постачальника за 24-годинний спринт, ваш ланцюг поставок є крихким.
Диверсифікуйте своє постачання ШІ
Поки американські гіганти борються за прихильність Пентагону, ринок фрагментується таким чином, що пропонує дивовижні хеджування.
Google Gemini побачив, як його акції стрімко зросли після новин, а величезне нове вливання коштів OpenAI від Amazon (раніше затятого союзника Anthropic) сигналізує про консолідацію влади.
Однак не варто забувати про «відкриті» та міжнародні альтернативи. Американські компанії, як-от Airbnb, вже наробили галасу, перейшовши на більш дешеві китайські моделі з відкритим вихідним кодом, як-от Qwen від Alibaba, для певних функцій обслуговування клієнтів, посилаючись на вартість і гнучкість.
Хоча китайські моделі несуть власні, можливо, більші геополітичні ризики, для деяких підприємств вони слугують життєздатним хеджуванням проти поточної волатильності внутрішнього ринку США.
Більш реалістичним для більшості є перехід до власного розміщення за допомогою вітчизняних розробок, таких як серія GPT-OSS від OpenAI, Granite від IBM, Llama від Meta, моделі Trinity від Arcee, Olmo від AI2, менші моделі LFM2 від Liquid AI, або інші високопродуктивні ваги з відкритим вихідним кодом. Сторонні інструменти для бенчмаркінгу, такі як Artificial Analysis та Pinchbench, можуть допомогти підприємствам визначити, які моделі відповідають їхнім критеріям вартості та продуктивності в завданнях та робочих навантаженнях, для яких вони розгортаються.
Запускаючи моделі локально або у приватній хмарі та доналаштовуючи їх на власних даних, ви захищаєте свій бізнес від воєн за «Умови використання» та федеральних чорних списків.
Навіть якщо друга модель трохи поступається за продуктивністю на бенчмарках, наявність її для масштабування запобігає повній зупинці, якщо ваш основний постачальник раптом опиниться «в облозі» державних репресій. Це просто гарний бізнес: вам потрібно диверсифікувати своє постачання.
Нова належна обачність
Як керівник підприємства, ваш список завдань щодо належної обачності щойно розширився завдяки волатильній боротьбі між федеральним сектором та приватним бізнесом.
Висновок очевидний: якщо ви плануєте підтримувати бізнес із федеральними агентствами, ви повинні мати змогу запевнити їх, що ваші продукти не побудовані на одному забороненому постачальнику моделей — незалежно від того, наскільки раптовим може бути таке призначення або наскільки юридично необґрунтованим воно може виявитися.
Зрештою, це урок стратегічної надлишковості. Ера ШІ мала бути про демократизацію інтелекту, але наразі вона виглядає як класична битва за оборонні закупівлі та виконавчу владу.
Забезпечте собі резервних та диверсифікованих постачальників, будуйте з урахуванням портативності та не дозволяйте вашим «агентам» стати супутнім збитком у війні між урядом та будь-якою конкретною компанією.
Незалежно від того, чи мотивовані ви ідеологічною підтримкою Anthropic, чи холоднокровним захистом прибутку, шлях вперед один: диверсифікуйте, відокремлюйте та будьте готові швидко «гаряче замінювати» моделі.
Взаємодія між моделями щойно стала новим «обов’язковим» елементом для підприємств.
Прогноз ІТ-Блогу: Це рішення стимулюватиме розвиток нейтральних платформ оркестрації ШІ та посилить конкуренцію між розробниками мовних моделей, які намагатимуться запропонувати більш гнучкі та безпечні умови співпраці. Підприємства, які швидко адаптуються до цієї тенденції, отримають значну конкурентну перевагу.
За даними порталу: venturebeat.com
