Міністерство оборони США (DOD) офіційно попередило керівництво компанії Anthropic про те, що сама компанія та її продукти розглядаються як ризик у ланцюжку поставок. Про це повідомляє Bloomberg, посилаючись на високопоставленого представника оборонного відомства.
Конфлікт інтересів та нове маркування
Таке маркування з’явилося після кількох тижнів протистояння між AI-лабораторією та DOD. Генеральний директор Anthropic Даріо Амодеї відмовився дозволити військовим використовувати їхні системи штучного інтелекту для масового стеження за американцями або для роботи повністю автономної зброї, яка приймає рішення про ціль та стрільбу без участі людини. Однак, оборонне відомство наполягає, що використання ШІ не повинно обмежуватися приватними підрядниками.
Наслідки для Anthropic та військових операцій
Зазначення “ризик у ланцюжку поставок” зазвичай застосовується до іноземних супротивників. Це означає, що будь-яка компанія або державна установа, що співпрацює з Пентагоном, повинна буде отримати сертифікацію про відсутність у їхніх процесах використання моделей Anthropic. Таке рішення може суттєво вплинути як на саму компанію, так і на її операційну діяльність. Anthropic досі була єдиною передовою AI-лабораторією, яка мала системи, готові для роботи з класифікованою інформацією. Американські військові наразі використовують їхню розробку Claude у кампанії в Ірані, де AI-інструменти допомагають швидко обробляти дані для операцій. За даними Bloomberg, Claude є одним з основних інструментів, інтегрованих у систему Palantir’s Maven Smart System, на яку покладаються військові оператори на Близькому Сході.
Непрецедентний крок та критика
Кілька критиків називають рішення Пентагону щодо маркування Anthropic “ризиком у ланцюжку поставок” через цю суперечку безпрецедентним кроком. Дін Болл, колишній радник з питань ШІ в адміністрації Трампа, охарактеризував це призначення як “передсмертний хрип” американської республіки, стверджуючи, що уряд відмовився від стратегічної ясності та поваги на користь “хуліганського” племінного підходу, який ставиться до вітчизняних інноваторів гірше, ніж до іноземних супротивників.
Заклики до відкликання рішення
Сотні співробітників OpenAI та Google закликали DOD відкликати своє рішення та звернулися до Конгресу з проханням протистояти тому, що може бути розцінено як неправомірне використання влади проти американської технологічної компанії. Вони також закликали своїх лідерів об’єднатися, щоб продовжувати відмовляти DOD у вимогах щодо використання їхніх AI-моделей для масового внутрішнього стеження та “автономного вбивства людей без людського нагляду”.
Угоди та політичні мотиви
На тлі цієї суперечки OpenAI уклала власну угоду з Міністерством оборони, що дозволяє військовим використовувати їхні системи ШІ для “всіх законних цілей”. Однак, деякі співробітники OpenAI висловили занепокоєння щодо двозначності формулювань угоди, яка може призвести саме до тих видів використання, яких намагалася уникнути Anthropic. Амодеї назвав дії DOD “відповідними та каральними” і, за повідомленнями, заявив, що його відмова підтримувати або робити внески на користь президента Трампа сприяла суперечці з Пентагоном. Президент OpenAI Грег Брокман є давнім прихильником Трампа, нещодавно пожертвувавши 25 мільйонів доларів на MAGA Inc. Super PAC.
Думка ІТ-Блогу: Ця ситуація демонструє зростаюче напруження між потребами оборонної сфери та етичними принципами розробників передових AI-технологій. Маркування Anthropic як ризику ланцюжка поставок може мати далекосяжні наслідки для всієї індустрії, змушуючи компанії ретельніше зважувати комерційні інтереси та потенційний вплив своїх розробок.
Джерело новини: techcrunch.com
