Ситуація навколо компанії Anthropic, пов’язана з її суперечками з Міністерством оборони США, поставила її в незручне становище. З одного боку, її розробки активно використовуються у конфлікті між США та Іраном, а з іншого — компанія припиняє співпрацю з багатьма клієнтами з оборонного сектору.
Неоднозначні регуляторні обмеження
Частина плутанини виникає через суперечливі обмеження, запроваджені урядом США. Президент Дональд Трамп доручив цивільним відомствам припинити використання продуктів Anthropic. Однак компанії було надано шість місяців для згортання операцій з Міністерством оборони. Наступного дня США та Ізраїль здійснили раптову атаку на Тегеран, розв’язавши тривалий конфлікт ще до того, як директива Трампа могла бути повністю виконана.
Нейромережі Anthropic у військових діях
У результаті, поки США продовжують повітряну атаку на Іран, моделі Anthropic задіяні у прийнятті численних рішень щодо цілевказування. І хоча міністр оборони Піт Геґсет пообіцяв визнати компанію ризиком для ланцюга постачань, жодних офіційних кроків у цьому напрямку не було зроблено, тому юридичних перешкод для використання системи немає.
Інтеграція з Palantir Maven
Стаття у The Washington Post від середи розкрила нові деталі щодо використання систем Anthropic у поєднанні з системою Palantir Maven. Під час планування ударів Пентагоном, системи “пропонували сотні цілей, видавали точні географічні координати та пріоритезували цілі відповідно до їх важливості”, — повідомляє видання. У статті функція системи була охарактеризована як “визначення цілей та пріоритезація цілей у реальному часі”.
Відтік клієнтів з оборонного сектору
Водночас багато компаній, залучених до оборонної галузі, вже замінили моделі Anthropic на конкурентів. Lockheed Martin та інші оборонні підрядники почали замінювати моделі компанії цього тижня, згідно з повідомленням Reuters. Багато субпідрядників опинилися у схожій скруті: керуючий партнер J2 Ventures повідомив CNBC, що 10 компаній з його портфеля “відмовилися від використання Claude для оборонних завдань і активно шукають заміну сервісу”.
Перспективи та невизначеність
Найбільшим відкритим питанням залишається, чи виконає Геґсет своє слово щодо позначення ризику для ланцюга постачань, що, ймовірно, призведе до гарячої судової справи. Але тим часом одна з провідних лабораторій штучного інтелекту швидко витісняється з військових технологій — навіть попри те, що її розробки використовуються в зоні активних бойових дій.
Думка ІТ-Блогу: Ситуація з Anthropic демонструє складність етичних дилем у сфері розробки ШІ, особливо коли технології потрапляють у військову сферу. Це також підкреслює потребу в чітких регуляторних механізмах, які б враховували як безпеку, так і потенційне використання передових технологій у конфліктних ситуаціях.
Дізнатися більше на: techcrunch.com
