Війська США використали ШІ Claude для атаки на Іран попри заборону Трампа

Війська США використали ШІ Claude для атаки на Іран попри заборону Трампа 1

ШІ Claude в Оперативному Штабі: Як американські військові обійшли заборону Трампа

Американський військово-промисловий комплекс продовжує демонструвати глибоку інтеграцію технологій штучного інтелекту у свої операційні процеси. Нещодавно стало відомо, що збройні сили США застосовували розробку компанії Anthropic, модель ШІ Claude, для розвідувальної діяльності та планування військових операцій проти Ірану. Ці події відбулися фактично паралельно з тим, як президент Дональд Трамп видав розпорядження про негайне припинення використання продуктів Anthropic усіма федеральними агенціями.

Claude як Інструмент Планування та Розвідки

Застосунок ШІ Claude виявився корисним допоміжним інструментом під час бомбардувань, ініційованих силами США та Ізраїлю. Це свідчить про надзвичайний рівень впровадження штучного інтелекту в сучасній американській обороні. Не єдиний випадок: раніше військові вже покладалися на Claude для розробки стратегії захоплення Ніколаса Мадуро у Венесуелі. У випадку з Іраном, за наявною інформацією, військові використовували Claude для комплексного аналізу розвідувальних даних, виявлення та обрання цілей, а також для моделювання сценаріїв бойових дій на полі бою.

Політичне Протистояння та Технологічна Реаність

Варто зазначити, що це використання відбулося попри відверту позицію Дональда Трампа. У своєму дописі у п’ятницю, за кілька годин до початку військової кампанії проти Ірану, Трамп закликав усі федеральні установи негайно зупинити співпрацю з будь-якими продуктами штучного інтелекту, розробленими Anthropic, включно з моделлю Claude. Він охарактеризував компанію як “радикально ліву” та керовану особами, “які не мають жодного уявлення про реальний світ”.

Етичні Норми та Операційна Необхідність

Нагадаємо, що під час операції у Венесуелі видання The Guardian повідомляло про потенційне порушення етичної політики компанії Anthropic. Їхня політика чітко забороняє використання розробок для цілей, пов’язаних із насильством, створенням зброї або відстеженням. Однак, представники Міністерства оборони США, зокрема Піт Гегсет, наполягали на ширшому та менш обмеженому доступі до функціоналу ШІ, що не могло бути задоволено Anthropic. Врешті-решт, угода була розірвана, а “на допомогу” прийшов інший розробник – OpenAI.

Виклики Інтеграції та Майбутнє Співпраці

Виправдовуючи розрив співпраці з Anthropic, Гегсет визнав, що повне видалення системи з військових робочих процесів є “складним” завданням через глибоку інтеграцію. За його словами, американські військові продовжать користуватися послугами Claude протягом наступних шести місяців. Хоча, ймовірно, в Anthropic не передбачали такого специфічного застосування своїх розробок. Після повного виведення системи з експлуатації, оборонні підрозділи, як стверджує Гегсет, перейдуть на співпрацю з “кращим та більш патріотичним підрядником”.

Міноборони Нідерландів: F-35 можна “зламати” так само легко, як iPhone чи консоль

Думка ІТ-Блогу: Цей інцидент яскраво демонструє складність взаємодії між політичними рішеннями та операційною реальністю в оборонному секторі, де ШІ стає невід’ємною частиною. Користувачі, як військові, так і цивільні, стикаються з викликами, пов’язаними з довірою до технологій та їхнім етичним використанням, навіть коли йдеться про державну безпеку.

За матеріалами: itc.ua

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *