
Amazon Web Services (AWS) представила один із найважливіших кроків в галузі штучного інтелекту (ШІ) за свою 20-річну історію. Компанія інтегрувала найпотужніші моделі від OpenAI у свою платформу Bedrock, анонсувала нову систему розробки керованих агентами ШІ, випустила десктопний інструмент Amazon Quick для підвищення продуктивності та розширила свій сервіс Amazon Connect до цілої лінійки рішень на базі ШІ для ланцюгів постачання, рекрутингу, охорони здоров’я та взаємодії з клієнтами.
Ці анонси, зроблені на заході в Сан-Франциско під назвою “What’s Next with AWS”, відбулися лише через добу після того, як OpenAI та Microsoft оголосили про реструктуризацію своєї ексклюзивної хмарної угоди. Це рішення вперше дозволило OpenAI надавати свої продукти всім хмарним провайдерам. Генеральний директор AWS Метт Гарман назвав це “величезним партнерством”, підкресливши, що клієнти давно очікували на моделі OpenAI в екосистемі AWS.
Вчасність цих анонсів не була випадковістю. Генеральний директор Amazon Енді Джессі напередодні назвав реструктуризацію угоди між Microsoft та OpenAI “дуже цікавою” і пообіцяв детальніше розповісти про це. Результатом стала серія презентацій, що демонструють амбіції AWS стати фундаментальним інфраструктурним шаром для ери керованих ШІ-агентів — епохи, коли інтелектуальні програмні агенти не просто відповідають на запитання, а автономно діють у корпоративних робочих процесах.
Найсучасніші моделі OpenAI вперше доступні на Amazon Bedrock, змінюючи ландшафт хмарного ШІ
Центральною подією стало оголошення про доступність найновіших моделей OpenAI через Amazon Bedrock у обмеженому попередньому перегляді, з очікуваним повноцінним запуском за кілька тижнів. AWS підтвердила, що GPT-4o вже доступний у тестовому режимі, а GPT-4.5 з’явиться незабаром.
В ексклюзивному інтерв’ю для VentureBeat на заході, Ентоні Лігуорі, віце-президент і провідний інженер AWS, розповів про значущість цієї події. “Ми оголосили про партнерство приблизно вісім тижнів тому, яке зосереджувалося на середовищі виконання з відстеженням стану (stateful runtime environment) та SRE API. Однак сьогодні ми оголосили про доступність усіх передових моделей OpenAI на Amazon Bedrock як через API без відстеження стану (stateless API), так і через API з відстеженням стану”.
Лігуорі особливо наголосив на важливості доступності stateless API, оскільки це усуває перешкоди для міграції. “Клієнти можуть взяти свої поточні робочі навантаження та одразу ж почати використовувати AWS. Їм не потрібно писати нове програмне забезпечення. Я вважаю, це одне з найцікавіших оголошень сьогодні”, — зазначив він.
Ця інтеграція дозволяє клієнтам AWS оцінювати та розгортати моделі OpenAI поряд із рішеннями від Anthropic, Meta, Mistral, Cohere та власними моделями Amazon — усе через єдину платформу Bedrock з її уніфікованими засобами безпеки, управління та контролю витрат. Для корпоративних закупівельних команд це означає спрощення фрагментованого ринку до єдиного інтерфейсу.
Інвестиції Amazon обсягом 50 мільярдів доларів та угода з Microsoft відкрили шлях до сьогоднішніх анонсів
Шлях до сьогоднішніх оголошень був непростим. Як повідомлялося раніше, угода OpenAI з Amazon на суму 50 мільярдів доларів, оголошена в лютому, створила юридичні суперечності з Microsoft. Згідно з попередньою угодою між Microsoft та OpenAI, Microsoft мала ексклюзивні права на доступ до продуктів OpenAI через API, що суперечило обіцянці OpenAI надати AWS ексклюзивні права на розміщення їхнього нового інструменту для створення агентів Frontier.
Microsoft публічно висловила незгоду, заявивши, що “Azure залишається ексклюзивним хмарним провайдером stateless API від OpenAI”. Financial Times повідомляла, що Microsoft навіть розглядала можливість судового позову. Реструктуризована угода, яка замінила ексклюзивність Microsoft на неексклюзивну ліцензію до 2032 року, усунула ці юридичні перешкоди.
Для AWS це означає, що її багатомільярдні інвестиції в OpenAI тепер можуть принести повну віддачу. Як повідомляв CNBC, директор з доходів OpenAI Деніз Дрессер зазначала в службовій записці, що відносини з Microsoft “обмежували нашу здатність бути там, де є наші клієнти — для багатьох це Bedrock”. На заході в Сан-Франциско Дрессер назвала цей момент переломним. “Корпоративні клієнти вже не перебувають у фазі експериментів та пілотних проєктів. Вони хочуть повномасштабного впровадження і розуміють, що для цього потрібні потужні моделі, але, що ще важливіше, вони хочуть ці моделі в надійному середовищі”, — сказала вона.
Генеральний директор OpenAI Сем Альтман, який не зміг бути присутнім особисто через судовий процес, що триває, надіслав відеозвернення. “Ми спільно розробляємо платформу агентів з нуля, глибоко інтегровану з сервісами AWS та керовану найсучаснішими моделями та інструментами OpenAI, щоб клієнти могли створювати та запускати потужних агентів у власному середовищі, не турбуючись про базову інфраструктуру”, — заявив Альтман.
Bedrock Managed Agents: “каркас” з підкріпленим навчанням, що, за словами AWS, визначить еру агентів
Окрім доступу до моделей, AWS представила Amazon Bedrock Managed Agents, керовані OpenAI. Це система, що поєднує передові моделі OpenAI з власним “каркасом” (harness) — фреймворком виконання агентів, який лежить в основі таких продуктів, як Codex. Саме тут аналіз Лігуорі був найбільш інформативним.
Він пояснив, що концепція “каркасу” означає зміну у підходах до навчання та розгортання моделей для роботи агентів. “Якщо говорити про платформу для агентів, то є два основні компоненти: каркас — власне логіка, яка виконує виклики інструментів для моделі, визначає, коли стискати контекст, і сама модель”, — розповів Лігуорі.
Критично важливо, на думку Лігуорі, що найкраща продуктивність агентів досягається, коли моделі спеціально навчаються на своєму каркасі за допомогою підкріпленого навчання, а не просто отримують інструкції використовувати інструменти під час інференсу. “Ви можете дати моделі багато інструкцій та набір інструментів, і вона зможе їх використовувати. Але коли ви тренуєте модель на конкретному наборі інструментів, певному стилі операцій, це схоже на багаторазове відпрацювання футбольних комбінацій — модель розвиває м’язову пам’ять для використання цього каркасу”, — пояснив він.
Футбольна аналогія є показовою. Якщо універсальні моделі — це гнучкі спортсмени, здатні адаптуватися до будь-якої тактики, то моделі, навчені на каркасі, — це команди-чемпіони, які відпрацювали одні й ті ж формації тисячі разів до інстинктивного виконання. Для підприємств, що розгортають агентів у відповідальних виробничих середовищах — управління фінансовими транзакціями, координація ланцюгів постачання або обробка чутливих медичних даних — ця надійність має величезне значення.
Bedrock Managed Agents складається з трьох компонентів: шар виконання для налаштування навичок, політик пам’яті та доступу до інструментів; шар середовища, де “мешкає” агент (розгортається на Fargate або іншому обчислювальному ресурсі AWS); та API інференсу для взаємодії з агентом. Система глибоко інтегрується з AWS Identity and Access Management, мережею VPC та аудитом CloudTrail, що означає, що кожна дія агента реєструється та керується існуючими корпоративними політиками безпеки.
AWS робить найсміливішу заяву про безпеку: нульовий доступ операторів до машин інференсу, що працюють з моделями OpenAI
Ймовірно, найзухвалішу заяву Лігуорі зробив, обговорюючи, чому підприємствам варто довіряти AWS, а не локальним рішенням чи меншим хмарним провайдерам. “У Bedrock система, яку ми використовуємо для розміщення моделей GPT-4o, має нульовий доступ операторів. Жодна людина не може увійти до цих машин, тому ваші дані інференсу ніколи не будуть доступні людині”, — заявив він.
Він назвав власні процесори AWS (Graviton) та чіпи безпеки Nitro основою цієї гарантії. “Якщо ви подивитеся на наші сервери, як обчислювальні, так і ті, що використовуються для генеративного ШІ, єдине, що ви можете придбати окремо — це модулі пам’яті. Усе інше — це або спеціальні плати, або навіть спеціальні мікросхеми.”
Цей аргумент спрямований на протидію зростаючій наративі від так званих “нео-хмар” — менших провайдерів, що пропонують локальне розміщення моделей із посиленими фізичними засобами контролю безпеки. Лігуорі перевернув цей аргумент: “Ви насправді набагато безпечніші в хмарі, тому що ми побудували платформу з настільки сильним фізичним захистом. Якби ви спробували створити власну систему інференсу сьогодні, ви, ймовірно, використовували б програмне забезпечення з відкритим кодом на звичайній Linux-системі.”
Це смілива заява, яку директори з інформаційної безпеки підприємств, безсумнівно, будуть ретельно вивчати. Але вона підкреслює переконання AWS, що еру агентів — коли ШІ-агенти отримують доступ до вихідного коду, персональних даних та критично важливих бізнес-систем — вимагає гарантій безпеки інфраструктури, які виходять далеко за межі того, що більшість організацій можуть побудувати самостійно.
Codex з 4 мільйонами користувачів на тиждень може значно зрости з появою кодувального агента OpenAI на AWS
Кодувальний агент OpenAI Codex також став доступний на Bedrock у обмеженому попередньому перегляді. Дрессер повідомила, що Codex демонструє шалені темпи зростання, збільшившись “з 3 мільйонів активних користувачів на тиждень до 4 мільйонів за два тижні”. Інструмент еволюціонував від простої генерації коду до повноцінної платформи для життєвого циклу розробки програмного забезпечення на базі агентів.
Для Лігуорі, який назвав себе “у 10-20 разів продуктивнішим” інженером завдяки таким інструментам, як Codex, інтеграція цієї можливості в AWS означає міст між індивідуальною продуктивністю розробника та розгортанням на рівні підприємства. “Більшість розробників сьогодні використовують ці моделі OpenAI на своїх ноутбуках. Ми ще не бачили такого в інших галузях, і з Bedrock Managed Agents ми маємо спосіб для підприємств розгортати агентів таким чином, що відповідає їхнім вимогам щодо відповідності нормам”, — сказав він.
Розрив, про який говорить Лігуорі — між досвідом окремого розробника та впровадженням на рівні підприємства — є, мабуть, центральним викликом поточного моменту в галузі ШІ. Індивідуальні інженери можуть досягти надзвичайного зростання продуктивності за допомогою інструментів для кодування на базі агентів. Але масштабування цього на тисячі розробників у компанії зі списку Fortune 500, із належним управлінням, безпекою та можливістю аудиту, вимагає інфраструктури рівня платформи. Це той ринок, на який орієнтується AWS.
Лігуорі бачив потенціал у найближчому майбутньому. Він описав досвід керівництва командою з приблизно 20 інженерів, які використовують спільну кодову базу навичок та інструментів MCP. “Це було надзвичайно потужно, тому що ми всі могли розвиватися, спираючись одне на одного, вивчаючи, як використовувати ці моделі. Там, де я стикався з перешкодами, це стосувалося того, що я хотів би поділитися з нашим фінансовим відділом… але я не міг попросити їх клонувати Git-репозиторій і створити його з нього. Bedrock Managed Agents, на його думку, дозволить командам створювати розміщені агенти, до яких матимуть доступ нетехнічні колеги — перетворюючи розробку на базі агентів із практики, доступної лише розробникам, на можливості для всього підприємства протягом наступних шести місяців.
Amazon Quick Desktop має на меті стати тим керованим ШІ-асистентом, який нарешті запрацює для не-розробників
Хоча партнерство з OpenAI домінувало в заголовках, AWS також представила Amazon Quick Desktop — новий настільний додаток, призначений для надання керованих ШІ-можливостей для фахівців, які не є розробниками. Лігуорі охарактеризував цей продукт як рішення критичної проблеми. “Багато з цих інструментів на базі агентів були здебільшого орієнтовані на розробників. Quick Desktop — чудовий інструмент для фахівців, які не є розробниками. Я вважаю, цей сегмент був недостатньо охоплений”, — сказав він.
Quick Desktop інтегрується з локальними файлами користувача, календарем, електронною поштою, Slack та корпоративними додатками, створюючи те, що AWS називає “Графом Знань” (Knowledge Graph), який відображає взаємозв’язки між людьми, проєктами, рішеннями та діями. Система нативно підключається до Google Workspace, Microsoft 365, Zoom та Salesforce. На відміну від інших інструментів продуктивності на базі ШІ, Quick не чекає на команди. Він проактивно виводить на передній план найважливіше — невирішені електронні листи, угоди, що потребують оновлення, документи, що очікують на перегляд — і може виконувати дії, такі як планування зустрічей, складання електронних листів або оновлення завдань у Jira.
Гарман, який користувався настільним додатком кілька тижнів, назвав його “безумовно найефективнішим інструментом” серед протестованих ним продуктів для підвищення продуктивності за допомогою ШІ. “Якщо ви подумаєте про те, що ми зробили з Quick — об’єднали всі джерела даних всередині підприємства — але ми також побачили потужність локального доступу до настільного комп’ютера та можливості працювати з локальними файлами, локальною поштою та локальним Slack… але люди були стурбовані безпекою, і цілком справедливо. Те, що ми робимо тут, — це поєднуємо все це з QUIC, щоб надати вам найкраще з усіх цих світів”, — сказав Гарман.
Продукт доступний у попередньому перегляді вже сьогодні, без необхідності облікового запису AWS — користувачі можуть зареєструватися лише за адресою електронної пошти. Серед клієнтів, які вже використовують його, — BMW, 3M, Mondelēz, Southwest Airlines та NFL, причому деякі повідомляють про скорочення часу виробництва майже на 80% та зменшення часу обробки запитів клієнтів більш ніж на 50%.
Amazon Connect стає сімейством із чотирьох продуктів, оскільки AWS робить ставку на “командних агентів”, які трансформують ланцюги постачання, рекрутинг та охорону здоров’я
Ймовірно, найамбітнішою довгостроковою ставкою, оголошеною у вівторок, було розширення Amazon Connect з одного продукту для контакт-центрів — який минулого року приніс понад 1 мільярд доларів доходу та обробляє 20 мільйонів взаємодій щодня — до цілої лінійки з чотирьох керованих ШІ-рішень.
Нова лінійка включає Amazon Connect Decisions — керований інструмент для планування ланцюгів постачання, побудований на основі понад 25 спеціалізованих інструментів для ланцюгів постачання та 30-річного досвіду операційних наук Amazon, включно з однією з базових моделей Amazon SCOT (Supply Chain Optimization Technologies). Amazon Connect Talent — це платформа для масового найму, натхненна досвідом Amazon з найму 250 000 сезонних працівників у пікові періоди, яка використовує ШІ-агентів для проведення цілодобових телефонних співбесід та надання рекрутерам анонімних оцінок на основі навичок. Amazon Connect Customer AI — це перейменована та вдосконалена версія оригінального сервісу контакт-центрів. А Amazon Connect Health охоплює весь шлях пацієнта від запису на прийом до клінічних консультацій, включно з амбієнтною документацією, пропозиціями щодо виставлення рахунків та резюме після візиту, спираючись на досвід Amazon з One Medical та Amazon Pharmacy.
Колін Обрі, яка керує рішеннями з прикладного ШІ в AWS і раніше була співзасновницею рекламного бізнесу Amazon, представила нову філософію дизайну, що лежить в основі всіх чотирьох продуктів: “гуморизм”. Якщо скевоморфізм перекладав фізичні об’єкти в цифрові метафори — столи в десктопи, файли в папки — то гуморизм перекладає динаміку людської взаємодії в поведінку ШІ-агентів. “Якщо ми створюємо продукти, в основі яких лежить командний напарник-агент, то як ці напарники повинні взаємодіяти з вами?” — запитала Обрі. Ця філософія проявляється в конкретних дизайнерських рішеннях: агенти Connect Decisions запитують планувальників, *чому* вони зробили ручні коригування, і застосовують ці знання до подібних продуктів. Агенти Connect Talent адаптують наступні запитання залежно від відповідей кандидатів. Агенти Connect Health повертають кожне клінічне виявлення до вихідних даних, щоб лікарі могли перевірити згенеровану ШІ документацію.
Чотирирівнева стратегія AWS розкриває, де буде захоплена реальна цінність у корпоративному ШІ
Разом, анонси вівторка демонструють узгоджену стратегію, що діє на чотирьох різних рівнях: кастомна інфраструктура (Graviton, Trainium, безпека з нульовим доступом операторів), доступ до моделей (Bedrock як маркетплейс моделей з уніфікованими API), платформа для агентів (Bedrock Managed Agents та AgentCore для створення та управління агентами), та спеціалізовані додатки (Quick для індивідуальної продуктивності, Connect для вертикальних бізнес-операцій).
Цей багаторівневий підхід вирішує фундаментальне протиріччя на ринку корпоративного ШІ. Компанії прагнуть вибору на рівні моделей, але інтеграції на рівні платформи та специфічності на рівні додатків. Пропонуючи всі три через єдину систему безпеки та управління, AWS робить ставку на те, що зможе захопити цінність по всьому стеку — стратегія, яка змінює конкурентну динаміку для Microsoft, Google Cloud та зростаючої кількості менших провайдерів інфраструктури ШІ.
Гарман спростував наратив “SaaSpocalypse”, згідно з яким керований ШІ знищить існуючі компанії-розробники корпоративного програмного забезпечення. “Існуючі постачальники сьогодні мають величезну перевагу. Вони мають глибоку експертизу в предметній галузі… велику клієнтську базу з усіма їхніми даними”. Він навів нещодавню API-пропозицію Salesforce як приклад розумної адаптації існуючих гравців. Але він також провів явну паралель з початковими днями хмарних обчислень, коли клієнти просто копіювали свої локальні дата-центри в хмару, а не переосмислювали можливості. “Ви бачите це сьогодні з тим, як люди думають про ШІ та агентів. Вони кажуть: ‘У мене є цей бізнес-процес, і я змушу агентів робити те саме, що роблять люди’. Це ніби працює… але це не дає вам трансформаційних змін”, — зазначив він.
Він навів власний приклад команди Amazon Prime Video як доказ того, як виглядають ці зміни на практиці. Команда використала керовані інструменти для перебудови системи оплати партнерів, що, за прогнозами, мало зайняти два роки — вони завершили її приблизно за два квартали, залучивши лише кількох людей, одночасно покращивши систему для клієнтів, для Amazon та для партнерів, які отримують оплату.
Перегони озброєнь у сфері корпоративного ШІ входять у нову фазу: доступ до моделей стає стандартом, а війна платформ розпочалася
Для підприємств, що оцінюють свої стратегії ШІ, анонси вівторка спрощують одне рішення — моделі OpenAI тепер доступні там, де більшість з них вже запускає виробничі робочі навантаження — але ускладнюють інше. Оскільки доступ до моделей стає все більш уніфікованим між хмарними провайдерами, справжнім диференціатором стає рівень платформи: де створюються, управляються, розгортаються та довіряються агенти для здійснення важливих дій. Це поле бою, яке відвойовує AWS, і це те саме поле, де Microsoft, Google, Salesforce та зростаюча кількість стартапів мають намір змагатися.
Лігуорі вважає, що трансформація прискорюється. “Я думаю, що протягом наступних шести місяців ми побачимо, як багато цих керованих рішень перейдуть від рівня розробників до рівня, який зможуть використовувати значно більше людей в межах підприємства”, — сказав він. Ентоні Лігуорі, провідний інженер AWS, який керував технічною роботою протягом восьми безсонних тижнів для впровадження моделей OpenAI в Bedrock, зазначив, що його власна продуктивність як інженера-програміста зросла в 10-20 разів за останній рік. Коли його запитали, що його найбільше захоплює у майбутньому, він не говорив про моделі чи інфраструктуру. Він говорив про те, що станеться, коли той самий мультиплікатор досягне фінансового відділу, менеджерів продуктів, планувальників ланцюгів постачання — мільйонів фахівців, які спостерігали за революцією агентів з узбіччя.
“Вісім тижнів тому у нас нічого не було, а тепер ми тут”, — сказав він. Якщо наступні вісім тижнів пройдуть так само швидко, узбіччя, можливо, більше не існуватиме.
Прогноз ІТ-Блогу: Інтеграція найпотужніших моделей OpenAI на платформу AWS Bedrock, разом із розвитком керованих агентів та спеціалізованих рішень, кардинально змінить ринок хмарних послуг, посиливши конкуренцію та прискоривши впровадження ШІ в корпоративному секторі. Очікується, що найближчі 1-2 роки будуть періодом швидкої адаптації цих технологій, що призведе до появи нових бізнес-моделей та переосмислення існуючих робочих процесів.
Інформація підготовлена на основі матеріалів: venturebeat.com
