Міноборони США: “Червоні лінії” Anthropic – загроза нацбезпеці

Міноборони США: "Червоні лінії" Anthropic – загроза нацбезпеці 1

У вівторок увечері Міністерство оборони США заявило, що компанія Anthropic становить “неприйнятний ризик для національної безпеки”. Це перша відповідь відомства на позови AI-лабораторії, яка оскаржує рішення секретаря оборони Піта Хегсета минулого місяця про визнання компанії ризиком у ланцюжку постачань. У рамках своїх претензій Anthropic вимагала від суду тимчасово заборонити Міністерству оборони застосовувати це маркування.

Суть претензій оборонного відомства

Суть аргументації Міністерства оборони, викладеної у 40-сторінковій заяві до федерального суду Каліфорнії, полягає у побоюванні, що Anthropic може “спробувати вимкнути свою технологію або превентивно змінити поведінку своєї моделі” до або під час “бойових дій”, якщо компанія “відчуватиме, що її корпоративні “червоні лінії” перетнуті”.

Контрактні розбіжності та позиція сторін

Минулого літа Anthropic підписала контракт з Пентагоном на суму 200 мільйонів доларів (приблизно 8 мільйонів ₴ за поточним курсом, враховуючи, що ціна може бути вказана в доларах США), щоб розгорнути свої технології у класифікованих системах. Під час подальших переговорів щодо умов контракту Anthropic заявила, що не бажає, аби її AI-системи використовувалися для масового стеження за американцями, і що технологія не готова для використання у прийнятті рішень про наведення або застосування летальної зброї. Пентагон заперечив, що приватна компанія не повинна диктувати, як військове відомство використовує технології.

У відповідь представник Anthropic послався на заяву генерального директора Даріо Амодея наприкінці лютого: “Anthropic розуміє, що рішення приймає Міністерство оборони, а не приватні компанії. Ми ніколи не висловлювали заперечень щодо конкретних військових операцій і не намагалися обмежувати використання наших технологій на власний розсуд”.

Аналіз експертів та правова позиція

Кріс Маттеї, юрист, що спеціалізується на питаннях Першої поправки, та колишній прокурор Міністерства юстиції, заявив TechCrunch, що не було жодного розслідування, яке б підтверджувало побоювання Міністерства оборони щодо можливого вимкнення або зміни AI-моделей Anthropic під час бойових дій. Без цих доказів, на думку Маттеї, аргументація відомства не може адекватно пояснити, чому переговорна позиція Anthropic зробила її “супротивником”.

“Уряд повністю покладається на уявні, спекулятивні припущення, щоб виправдати дуже, дуже серйозний юридичний крок, який вони зробили проти Anthropic”, – сказав Маттеї. Він додав, що відомство не змогло “сформулювати достовірне або навіть зрозуміле обґрунтування того, чому відмова Anthropic погодитися на положення про “всі законні види використання” зробила її ризиком для ланцюжка постачань, а не постачальником, з яким Міністерство оборони просто не хотіло мати справу”.

Підтримка Anthropic та суспільний резонанс

Багато організацій висловилися проти дій Міністерства оборони щодо Anthropic, стверджуючи, що відомство могло просто розірвати контракт. Кілька технологічних компаній та співробітників, зокрема з OpenAI, Google та Microsoft, а також групи захисту прав, подали клопотання amicus curiae (друзів суду) на підтримку Anthropic.

У своїх позовах Anthropic звинуватила Міністерство оборони у порушенні її прав за Першою поправкою та покаранні компанії на ідеологічних підставах.

“Багато в чому безглузді аргументи уряду самі по собі є найкращим доказом того, що дії адміністрації були явно каральними, спрямованими проти відмови Anthropic погодитися на умови уряду, що, всупереч заяві уряду, є формою захищеного висловлювання”, – повідомив Маттеї TechCrunch.

Подальші кроки та позиція компанії

Судове засідання щодо клопотання Anthropic про попередню судову заборону заплановано на наступний вівторок.

Представник Anthropic повідомив TechCrunch, що їхнє рішення звернутися до суду не змінює їхньої “давньої відданості використанню штучного інтелекту для захисту нашої національної безпеки”, але це “необхідний крок” для захисту їхнього бізнесу, клієнтів та партнерів.

Ця стаття була оновлена ​​з додаванням інформації від Кріса Маттеї, юриста з конституційних прав, та коментарів від Anthropic.

Думка ІТ-Блогу: Цей конфлікт підкреслює складні етичні та юридичні дилеми, що виникають при інтеграції передових AI-технологій у державні та військові структури. Для ринку це означає посилення уваги до питань контролю, прозорості та відповідальності розробників ШІ, а для користувачів – потенційне розширення сфери застосування AI, але й необхідність бути обізнаними про можливі ризики.

Джерело новини: techcrunch.com

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *