Anthropic судиться з Пентагоном через маркування ланцюга поставок

Anthropic судиться з Пентагоном через маркування ланцюга поставок 1

Даріо Амодеї заявив у четвер, що Anthropic планує оскаржити в суді рішення Міністерства оборони США (МО) про визнання компанії ризиком у ланцюжку постачань. Амодеї назвав таке маркування “юридично необґрунтованим”.

Суперечка навколо статусу Anthropic

Ця заява прозвучала за кілька годин після того, як МО офіційно класифікувало Anthropic як ризик у ланцюжку постачань. Це рішення стало результатом тривалої суперечки щодо рівня контролю, який військовим слід мати над системами штучного інтелекту. Позначка “ризик у ланцюжку постачань” може заборонити компанії співпрацювати з Пентагоном та його підрядниками. Даріо Амодеї чітко окреслив позицію Anthropic: їхній ШІ не буде використовуватися для масового стеження за громадянами США або для повністю автономної зброї. Однак Пентагон наполягав на “всіх законних цілях” без обмежень.

Обмеження та сфера застосування

У своїй заяві Амодеї зазначив, що переважна більшість клієнтів Anthropic не зачіпаються цим статусом. “Щодо наших клієнтів, це стосується лише використання Claude клієнтами як безпосередньої частини контрактів з Міністерством оборони, а не всього використання Claude клієнтами, які мають такі контракти”, — пояснив він.

Як попередній погляд на аргументацію Anthropic у суді, Амодеї підкреслив, що лист Міністерства, який маркує компанію як ризик у ланцюжку постачань, має вузьку сферу застосування. “Він існує для захисту уряду, а не для покарання постачальника; насправді, закон вимагає від Міністра оборони використовувати найменш обмежувальні засоби, необхідні для досягнення мети захисту ланцюжка постачань”, — зазначив Амодеї. “Навіть для підрядників Міністерства оборони, позначка ризику в ланцюжку постачань не обмежує (і не може обмежувати) використання Claude або ділові стосунки з Anthropic, якщо вони не пов’язані з їхніми конкретними контрактами з Міністерством оборони”.

Витік внутрішньої інформації та угода з OpenAI

Амодеї підтвердив, що Anthropic проводила продуктивні переговори з МО протягом останніх кількох днів. Деякі припускають, що ці переговори були зірвані через витік внутрішнього меморандуму, надісланого співробітникам, у якому Амодеї охарактеризував співпрацю конкурента, OpenAI, з МО як “театр безпеки” (термін, що означає удавані, але не реальні заходи безпеки).

OpenAI тим часом підписала угоду про співпрацю з МО, замінивши Anthropic. Цей крок викликав негативну реакцію серед співробітників OpenAI.

Амодеї вибачився за витік у своїй заяві в четвер, стверджуючи, що компанія не ділилася меморандумом навмисно і не доручала цього нікому. “Ескалація ситуації не в наших інтересах”, — сказав він.

Контекст та майбутні кроки

Амодеї заявив, що меморандум був написаний протягом “кількох годин” після серії оголошень, включаючи публікацію президента в Truth Social про виключення Anthropic з федеральних систем, призначення Міністром оборони Пітом Хегсеттом статусу ризику в ланцюжку постачань, і, нарешті, оголошення Пентагону про угоду з OpenAI. Він вибачився за тон, назвавши це “важким днем для компанії” і зазначив, що меморандум не відображає його “зважених чи продуманих поглядів”. Написаний шість днів тому, він тепер є “застарілою оцінкою”.

Він завершив, заявивши, що головним пріоритетом Anthropic є забезпечення доступу американських солдатів та експертів з національної безпеки до важливих інструментів в умовах поточних масштабних бойових операцій. Anthropic наразі підтримує деякі операції США в Ірані, і Амодеї заявив, що компанія продовжуватиме надавати свої моделі МО за “номінальною вартістю” “стільки, скільки буде необхідно для здійснення цього переходу”.

Anthropic може оскаржити це рішення в федеральному суді, ймовірно, у Вашингтоні. Однак закон, що лежить в основі цього рішення, ускладнює його оскарження, оскільки він обмежує звичайні способи оскарження компаніями рішень у сфері державних закупівель і надає Пентагону широку дискрецію у питаннях національної безпеки.

Або, як висловився Дін Болл, колишній радник Білого дому за часів Трампа з питань ШІ, який виступав проти ставлення Хегсетта до Anthropic: “Суди досить неохоче переглядають рішення уряду щодо того, що є, а що не є питанням національної безпеки… Існує дуже висока планка, яку потрібно подолати, щоб зробити це. Але це не неможливо”.

Думка ІТ-Блогу: Це протистояння між Anthropic та МО США демонструє фундаментальне напруження між потребами національної безпеки та етичними принципами розробки ШІ. Результат цієї судової битви може суттєво вплинути на майбутні державні контракти у сфері штучного інтелекту та визначити межі контролю держави над передовими технологіями.

Джерело новини: techcrunch.com

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *