
Компанія Cerebras Systems, виробник чіпів із Кремнієвої долини, відомий створенням найбільшого у світі комерційного процесора для штучного інтелекту, здійснила вибуховий вихід на біржу Nasdaq у середу. Акції відкрилися за ціною 350 доларів за штуку — майже вдвічі вище за ціну IPO у 185 доларів — і менш ніж за годину торгів перевищили ринкову капіталізацію у 100 мільярдів доларів. Цей дебют миттєво закріпив за Cerebras статус однієї з найцінніших напівпровідникових компаній світу і підтвердив десятирічну ставку на те, що індустрія ШІ зрештою вимагатиме принципово нового типу чіпів.
Компанія продала 30 мільйонів акцій за 185 доларів кожна, залучивши 5,55 мільярда доларів. За даними Bloomberg, це найбільше технологічне IPO в США з моменту виходу Uber на ринок у 2019 році. Фінальна ціна значно перевищила очікування: спочатку Cerebras планувала продавати акції за 115-125 доларів, потім підвищила діапазон до 150-160 доларів через зростання попиту інвесторів, а згодом встановила ціну вище навіть цього підвищеного діапазону.
«Це новий початок», — заявила Джулі Чой, старша віцепрезидентка та директорка з маркетингу Cerebras, в ексклюзивному інтерв’ю VentureBeat вранці дня IPO. За її словами, компанія планує спрямувати новий капітал на розширення хмарної інфраструктури, яка стала центральним елементом її стратегії зростання. «Завдяки цьому новому капіталу ми заповнимо більше центрів обробки даних системами Cerebras для забезпечення найшвидшого у світі інференсу».
IPO завершує одну з найдраматичніших корпоративних трансформацій останнього часу в технологічному секторі. Cerebras вперше подала заявку на вихід на біржу у вересні 2024 року, але відкликала її через рік через інтенсивний аналіз майже повної залежності від одного клієнта з Об’єднаних Арабських Еміратів. Компанія повторно подала заявку у квітні 2026 року з радикально зміненим бізнес-профілем: нові партнерства з OpenAI та Amazon Web Services, стрімко зростаюча хмарна служба інференсу та дохідна база, що зросла на 76% до 510 мільйонів доларів у 2025 році.
Як чіп розміром із обідню тарілку став основою компанії вартістю 100 мільярдів доларів
Щоб зрозуміти ажіотаж, потрібно розібратися в самій кремнієвій основі.
Cerebras створює так званий Wafer-Scale Engine (WSE) — єдиний процесор, що займає цілу кремнієву пластину, диск розміром з обідню тарілку, з якої нарізають звичайні чіпи. WSE-3 третього покоління містить 4 трильйони транзисторів, 900 000 обчислювальних ядер та 44 гігабайти вбудованої пам’яті. За даними компанії, він у 58 разів більший за чіп Nvidia B200 «Blackwell» і забезпечує в 2625 разів більшу пропускну здатність пам’яті порівняно з пакетом B200. Це зазначено у файлі S-1, поданому до Комісії з цінних паперів та бірж США.
Перевага у пропускній здатності надзвичайно важлива для інференсу ШІ — процесу виконання навченої моделі для генерації відповідей. Коли велика мовна модель генерує текст, вона передбачає один токен за раз, і кожен токен вимагає передачі всього набору вагомостей моделі з пам’яті до обчислювальних блоків. Ця робота є послідовною і не може бути паралелізована, що робить пропускну здатність пам’яті основним обмеженням швидкості. Cerebras стверджує, що її архітектура забезпечує до 15 разів швидший інференс порівняно з провідними рішеннями на основі GPU для відкритих моделей, що підтверджено незалежним бенчмаркером Artificial Analysis.
«Одним із архітектурних принципів, коли ми будували пластину, було: давайте тримати обчислювальні елементи ближче один до одного, щоб вони могли спілкуватися з низькою затримкою», — розповів Енді Хок, віцепрезидент з продуктів Cerebras. «Низька затримка є важливою для обчислень ШІ. Це наріжний камінь швидкого інференсу».
Засновницька ідея була неортодоксальною і протягом більшої частини життя компанії — комерційно передчасною. Засновники Cerebras у 2015 році усвідомили, що робочі навантаження ШІ є проблемами, обмеженими комунікаціями — швидкість залежить від того, наскільки швидко дані можуть переміщуватися між пам’яттю та обчисленнями — і що найкращий спосіб прискорити цей рух — це тримати все на одній масивній пластині.
Інтеграція на рівні пластин (wafer-scale integration) неодноразово намагалася бути реалізованою та відкидалася протягом 75-річної історії напівпровідникової промисловості. Кожна попередня спроба зазнавала невдачі. Cerebras вирішила проблему завдяки двом ключовим інноваціям, деталізованим у її S-1: пропрієтарному інтерконекту між декількома кристалами, який з’єднує окремі кристали на рівні пластини під час виробництва, та відмовостійкій архітектурі, яка обходить виробничі дефекти за допомогою надлишкових будівельних блоків, подібно до того, як гіперскейлери обробляють збої серверів.
Чому Cerebras ставить на хмарний інференс, а не на продаж обладнання
Більшу частину свого існування Cerebras продавала обладнання — масивні, водоохолоджувані суперкомп’ютери для ШІ, встановлені на локальних серверах клієнтів. Ця модель генерувала 358 мільйонів доларів доходу від продажів обладнання у 2025 році. Але проспект IPO розкриває стратегічний зсув, який визначить наступну главу компанії: перехід до хмарних служб інференсу.
Cerebras запустила свій хмарний сервіс інференсу в серпні 2024 року. Менш ніж за два роки дохід від хмарних та інших послуг досяг 151,6 мільйона доларів у 2025 році, що на 94% більше порівняно з 78,3 мільйона доларів у 2024 році. Компанія очікує, що цей сегмент складатиме значно більший відсоток від загального доходу в майбутньому, головним чином завдяки величезній угоді з OpenAI.
«Хмарні сервіси та API моделей є кращим і природним способом споживання інференс-послуг для розробників додатків», — зазначив Хок. «Тому це був природний спосіб упаковки та виходу на ринок для можливостей інференсу».
Чой представила хмару як інструмент демократизації. «Чи то підприємливий розробник, стартап, чи масова організація, як OpenAI — хмара справді полегшила людям розгортання та відчуття переваг швидкого інференсу», — сказала вона.
Економіка такого переходу потребує значних інвестицій. Cerebras мусить орендувати простір дата-центрів, виробляти та розгортати свої системи, створювати програмне забезпечення для управління потужностями — все це до отримання регулярного доходу. S-1 прямо попереджає, що валова маржа знизиться в найближчій перспективі, оскільки компанія понесе початкові витрати на хмарну інфраструктуру. Валова маржа компанії вже знизилася до 39% у 2025 році з 42,3% у 2024 році через зростання витрат на центри обробки даних. Але картина попиту виглядає вражаючою. «Кожна хмарна система, яку ми розгорнули досі, повністю завантажується потужностями», — сказав Хок. «Ми були раді спостерігати за попитом на швидкий інференс від Cerebras. Ми хочемо працювати швидше, щоб обслуговувати цей ринок».
Угода з OpenAI на 20 мільярдів доларів, що миттєво змінила Cerebras
Найбільш значущими діловими відносинами для Cerebras є угода з OpenAI, укладена в грудні 2025 року, за якою OpenAI зобов’язалася придбати 750 мегават потужностей для інференсу Cerebras протягом наступних кількох років. Угода оцінюється більш ніж у 20 мільярдів доларів і включає опції на придбання OpenAI додатково 1,25 гігавата потужностей, що може довести загальний обсяг розгортання до 2 гігават.
Ця домовленість виходить далеко за межі стандартних відносин постачальника та клієнта. OpenAI та Cerebras спільно розробляють майбутні моделі для майбутнього обладнання Cerebras — щільний цикл зворотного зв’язку, який надає Cerebras розуміння передових архітектур моделей ще до їх випуску, а OpenAI — інференс-системи, оптимізовані для її специфічних робочих навантажень. Партнерство перейшло від контракту до реалізації з вражаючою швидкістю. «Після оголошення партнерства ми запустили першу модель приблизно за 35 днів», — розповіла Чой. «Це був Codex Spark, і інженери OpenAI були просто вражені».
Codex Spark, модель OpenAI, розроблена для кодування в реальному часі, дозволяє розробникам отримувати працююче програмне забезпечення з текстових інструкцій за секунди, використовуючи інфраструктуру Cerebras. Чой описала глибоке культурне взаєморозуміння між двома компаніями. «Наші команди справді розуміють одна одну як інженери. Ми на одній хвилі», — сказала вона. «Для цих хлопців швидкості ніколи не буває достатньо».
Для фінансування розширення інфраструктури OpenAI надала Cerebras кредит на робочий капітал у розмірі 1 мільярда доларів у січні 2026 року, забезпечений борговою розпискою, що погашається не пізніше 31 грудня 2032 року, з річною відсотковою ставкою 6%. Кредит може бути погашений готівкою або шляхом надання обчислювальних потужностей. Однак, S-1 розкриває значний ризик: якщо договір про взаємне розуміння (MRA) буде розірвано з будь-якої причини, крім суттєвого невиправленого порушення з боку OpenAI, OpenAI може отримати контроль над коштами кредиту та вимагати негайного погашення. OpenAI також володіє опціоном на придбання до 33,4 мільйонів акцій звичайної акції класу N Cerebras за ціною виконання 0,00001 долара за акцію — практично безкоштовні акції, які будуть конвертовані в міру надання Cerebras узгоджених потужностей. За початковою ціною IPO, повністю конвертований опціон буде коштувати приблизно 11,7 мільярда доларів.
Як партнерство з Amazon Web Services може принести чіпи Cerebras мільйонам розробників
У березні 2026 року Cerebras підписала зобов’язуючий протокол про наміри з Amazon Web Services, ставши першим гіперскейлером, який розгорне системи Cerebras у своїх власних дата-центрах. Партнерство впроваджує новий архітектурний концепт під назвою «розподілений інференс», який розділяє два етапи інференсу ШІ — попереднє заповнення (обробка запиту користувача) та декодування (генерація відповіді) — між різними апаратними засобами, оптимізованими для кожного завдання. За цією угодою, чіпи AWS Trainium обробляють попереднє заповнення, тоді як системи Cerebras CS-3 відповідають за декодування, з’єднані мережею Amazon Elastic Fabric Adapter.
Згідно з прес-релізом AWS від березня, цей підхід спрямований на забезпечення на порядок швидшого інференсу порівняно з наявними рішеннями. Хок надав технічні деталі щодо того, чому це працює. «Вимоги до інтерконекту між системами попереднього заповнення та декодування насправді не є надто високими, тому ми можемо використовувати традиційний інтерконект між, скажімо, Trainium та wafer-scale engine і все одно забезпечувати швидкий час до першого токена та надзвичайно низьку затримку генерації токенів», — пояснив він. «Що комбінація Trainium та wafer-scale engine справді дає нам у такому розподіленому або гетерогенному налаштуванні інференсу, це всю швидкість і значно більшу ефективність, тому ми можемо ефективно обслуговувати більше токенів на одиницю простору стійки або кіловата».
Партнерство надає Cerebras те, чого їй довго бракувало: масове розповсюдження. AWS обслуговує мільйони корпоративних клієнтів по всьому світу, а системи Cerebras, розгорнуті через Amazon Bedrock, стануть доступними для будь-якого розробника в їхньому існуючому середовищі AWS. «AWS має неймовірне охоплення», — сказав Хок. «Партнерство справді спрямоване на те, щоб донести цю можливість швидкого інференсу — цю найкращу в галузі, швидку можливість інференсу, яку забезпечують wafer-scale engine та Trainium — до ширшого ринку». Протокол про наміри також надає AWS опціон на придбання приблизно 2,7 мільйонів акцій звичайної акції класу N Cerebras за ціною виконання 100 доларів, з умовою конвертації, прив’язаною до покупок, що перевищують початкову оренду.
Проблема концентрації клієнтів в ОАЕ, яка ледь не зірвала IPO — і чи дійсно вона вирішена
Незважаючи на весь ажіотаж, Cerebras несе ризик, який переслідував її з моменту першої спроби IPO: концентрація клієнтів. У 2024 році G42 — технологічний конгломерат зі штаб-квартирою в Абу-Дабі — становив 85% загального доходу Cerebras. Файл S-1 компанії, поданий у вересні 2024 року, привернув значну увагу через цю залежність, доповнену питаннями про експортний контроль для передових чіпів ШІ, відправлених до ОАЕ. Cerebras відкликала цей файл.
Цифри за 2025 рік демонструють прогрес, але не вирішення. Частка G42 у доходах знизилася до 24%, але Mohamed bin Zayed University of Artificial Intelligence (MBZUAI), установа з Абу-Дабі, пов’язана з G42, становила 62% від загального доходу.
Разом ці дві компанії, пов’язані з ОАЕ, все ще становили 86% продажів Cerebras у 2025 році. S-1 відкрито визнає цей ризик, зазначаючи, що MBZUAI становив 77,9% дебіторської заборгованості станом на 31 грудня 2025 року, а американські експортні ліцензії для систем Cerebras, відправлених до G42 та MBZUAI, вимагають «суворих зобов’язань щодо безпеки та дотримання правил для запобігання перенаправленню та зловживанню нашими технологіями».
Чой безпосередньо торкнулася цього питання, вказуючи на угоди з OpenAI та AWS як на доказ розширення клієнтської бази. «Тепер, з OpenAI та Amazon, це ті ж самі глибокі партнерства», — сказала вона. «Ми — компанія глибоких технологій. Наші технології створювалися десятиліття. Ми глибоко підходимо до їх створення, і тепер ми глибоко працюємо з двома найбільшими гравцями — найбільшою лабораторією ШІ, OpenAI, і найбільшим хмарним провайдером, AWS».
Хок представив еволюцію клієнтів як прогрес у сприйнятті ринку. «G42 викликав інтерес та натхнення на ринку», — сказав він. «Нікого в цьому бізнесі немає розумнішого, credible чи з більшим охопленням, ніж OpenAI та AWS. І тому, я думаю, OpenAI та AWS змусили ринок перейти від зацікавленості та натхнення до — я б назвав це цікавістю та переконаністю». Тим не менш, S-1 попереджає, що сам MRA з OpenAI «становить значну частину наших прогнозованих доходів на наступні кілька років». Бізнес Cerebras залишатиметься залежним від невеликої кількості дуже великих клієнтів у передбачуваному майбутньому — структурна особливість ринку інфраструктури ШІ, де будівництво вимірюється сотнями мегаватів та мільярдами доларів.
Чи зможе Cerebras будувати дата-центри достатньо швидко, щоб задовольнити зростаючий попит?
З урахуванням того, що OpenAI споживає 750 мегават узгоджених потужностей, а AWS готується розгорнути системи Cerebras у своїх дата-центрах, виникає питання, чи зможе Cerebras достатньо швидко масштабувати свою фізичну інфраструктуру, щоб обслуговувати решту. Хок визнав це напруження. «Це хороша проблема, коли попит починає перевищувати пропозицію. Це не означає, що це легка проблема для вирішення», — сказав він. «Нам потрібно створювати ці надзвичайні системи. Нам потрібно закуповувати простір дата-центрів. Нам потрібно розгортати там системи. Нам потрібно налаштовувати програмне забезпечення, щоб зустріти наших клієнтів там, де вони є».
Компанія свідомо підходить до розподілу потужностей. «Ми намагаємося бути дуже обачними щодо того, як ми розподіляємо потужності, коли вони будуються», — сказав Хок. «Ми працюємо в тісному партнерстві, щоб обслуговувати клієнтів та ринки з найвищим пріоритетом».
Чой стверджувала, що обмеження фактично загострює фокус. «Іноді, коли чогось менше, це змушує вас бути дуже виваженим», — сказала вона. Окрім OpenAI, вона назвала Cognition — стартап з розробки коду ШІ — та Block, очолюваний Джеком Дорсі, як значних клієнтів. «Джек також брав участь у нашому роуд-шоу», — зазначила Чой. «Ми прискорюємо весь цей досвід роботи з грошима та ШІ в межах Cash App».
S-1 розкриває, що Cerebras наразі управляє дата-центрами в Каліфорнії, Оклахомі та Канаді, з планами розширення на міжнародному рівні. Компанія уклала нескасовані договори оренди дата-центрів наприкінці 2025 року із сукупними дисконтованими майбутніми мінімальними платежами приблизно 344 мільйони доларів, а в березні 2026 року підписала договір оренди дата-центру в Канаді з очікуваними мінімальними платежами приблизно 2,2 мільярда доларів протягом 10-річного терміну.
Кошти від IPO — у поєднанні з 1 мільярдом доларів від раунду серії HPreferred Stock у січні 2026 року та 1 мільярдом доларів кредиту від OpenAI — надають Cerebras «військову скриньку» понад 8 мільярдів доларів для фінансування будівництва. Чи буде цього достатньо для задоволення ринку, де великі клієнти замовляють потужності, виміряні в гігаватах, залишається відкритим питанням.
Тінь Nvidia: проти чого насправді бореться Cerebras у війні за AI-чіпи
Cerebras виходить на публічні ринки в умовах найконкурентнішого напівпровідникового середовища за останні десятиліття. Nvidia залишається домінуючою силою в галузі обчислень ШІ, контролюючи переважну більшість ринку інфраструктури для тренування та інференсу. Її архітектура GPU має глибоко вкорінену програмну екосистему, побудовану навколо CUDA, фреймворку програмування, який став де-факто стандартом для розробки ШІ. Cerebras S-1 прямо визнає це, зазначаючи, що «багато наших конкурентів мають конкурентні переваги над нами, такі як видатні та передові технології та програмні стеки, розроблені для унеможливлення входу нових гравців на ринок».
Але Cerebras стверджує, що ринок інференсу структурно відрізняється від ринку тренування — і що її архітектура має фундаментальну перевагу в робочому навантаженні, яке має найбільше значення в майбутньому. Оскільки моделі ШІ змістилися в бік міркувань, де моделі виконують багатоетапні обчислення під час інференсу для вирішення проблем, кількість токенів, що генеруються на запит, вибухово зросла. Кожен токен вимагає переміщення повних вагомостей моделі з пам’яті до обчислень, що робить пропускну здатність пам’яті вузьким місцем. S-1 посилається на дані Bloomberg Intelligence, які прогнозують, що адресна частина ринку інференсу ШІ, яку може охопити Cerebras, зросте з приблизно 66 мільярдів доларів у 2025 році до 292 мільярдів доларів до 2029 року, зі складеним річним темпом зростання 45% — значно випереджаючи прогнозований CAGR у 20% для інфраструктури тренування ШІ.
Nvidia, очевидно, помітила загрозу швидкого інференсу. У грудні 2025 року Nvidia придбала Groq — стартап, архітектура процесорів Tensor Streaming якого більше нагадує підхід Cerebras — за 20 мільярдів доларів.
Кілька місяців потому Nvidia оголосила про плани щодо продуктів на базі Groq, сигналізуючи, що навіть домінуючий гравець галузі визнає обмеження архітектури GPU для інференсу, чутливого до затримки. Cerebras також конкурує зі спеціалізованими чіпами, розробленими гіперскейлерами — включаючи TPUs від Google та чіпи Trainium від Amazon — та зростаючим списком постачальників хмарних сервісів ШІ. На запитання про Nvidia та Groq Чой відмовилася коментувати. «Ми почуваємося досить добре зараз», — з посмішкою сказала вона.
Доходи стрімко зростають, але фінансові деталі розкривають складнішу картину
Фінансова картина, яка вимальовується з S-1, свідчить про швидке масштабування зі значною прихованою складністю. Доходи зросли з 78,7 мільйонів доларів у 2023 році до 290,3 мільйонів доларів у 2024 році та 510 мільйонів доларів у 2025 році — понад десятикратне зростання за три роки. Компанія повідомила про прибуток за GAAP у розмірі 237,8 мільйонів доларів у 2025 році, але ця цифра значною мірою зумовлена одноразовим прибутком у 363,3 мільйона доларів від погашення зобов’язань за форвардним контрактом, пов’язаним з угодою про привілейовані акції. Виключаючи цей прибуток та витрати на оплату акцій, чистий збиток Cerebras за не-GAAP у 2025 році склав 75,7 мільйонів доларів, що перевищує збиток за не-GAAP у 21,8 мільйони доларів у 2024 році.
Операційні збитки також поглибилися. Cerebras втратила 145,9 мільйонів доларів від операцій у 2025 році, порівняно зі 101,4 мільйонами доларів попереднього року, оскільки компанія інвестувала значні кошти в дослідження та розробки (243,3 мільйони доларів, зростання на 54%) та продажі та маркетинг (70,6 мільйонів доларів, зростання на 237%).
Компанія витратила 10 мільйонів доларів операційного грошового потоку в 2025 році, що є різким зворотом порівняно з 452 мільйонами доларів готівки, отриманої в 2024 році — рік, який був збільшений за рахунок надходжень від депозитів клієнтів на 640 мільйонів доларів, переважно від G42 та MBZUAI. S-1 попереджає, що валова маржа зазнаватиме тиску в найближчій перспективі через початкові витрати на хмарну інфраструктуру, амортизацію опціонів клієнтів та витрати на центри обробки даних.
Шлях до цього моменту був нелегким. Cerebras випустила свої перші системи у 2020 та 2021 роках — до того, як ринок був готовий. Як написали засновники в проспекті: компанія «створила щось надзвичайне, але ринок ще не був готовий». Момент з ChatGPT наприкінці 2022 року змінив усе.
На початку 2025 року перевага Cerebras у швидкості — яка довгий час була рішенням у пошуку проблеми — стала терміново актуальною, оскільки кодові агенти ШІ, інструменти для глибоких досліджень та програми для голосового зв’язку в реальному часі вимагали такого інференсу з низькою затримкою, який кластери GPU насилу забезпечували. S-1 описує ринок, де кодові агенти ШІ «майже не існували у 2023 році», але сукупно генерували «мільярди ARR у 2025 році», і де 42% професійного коду генерується або допомагається ШІ.
Що Cerebras повинна довести, щоб виправдати оцінку у 100 мільярдів доларів — і що станеться, якщо вона не зможе
Дивлячись у майбутнє, Хок сигналізував, що поточне покоління обладнання — це лише початок. «Wafer-scale engine три та CS-3 — це не кінець історії. Це лише початок», — сказав він. «У нас є багаторічний технологічний план, який продовжує будуватися на технології wafer-scale, прискорюючи продуктивність, підвищуючи ефективність, підтримуючи більший масштаб».
S-1 підтверджує, що Cerebras має намір розширити вбудовану пам’ять та пропускну здатність, збільшити щільність інтерконекту та використовувати майбутні вдосконалення технологічних процесів — і розкриває, що компанія вже отримала експортні ліцензії для майбутніх систем CS-4, призначених для ОАЕ.
Компанія також стикається з низкою операційних ризиків, які випробували б будь-яку організацію, не кажучи вже про ту, яка ніколи не діяла як публічна компанія. Вона повністю залежить від TSMC для виготовлення пластин, без довгострокових зобов’язань щодо постачання. Її договори оренди дата-центрів тривають роками, тоді як контракти на інференс з клієнтами часто короткострокові або залежать від споживання, що створює невідповідність між фіксованими витратами та змінним доходом. Компанія виявила суттєві недоліки у своїх внутрішніх засобах контролю фінансової звітності. А її найважливіші відносини з клієнтами — з OpenAI — включають положення про ексклюзивність, які обмежують Cerebras у співпраці з певними названими конкурентами OpenAI, потенційно обмежуючи майбутню диверсифікацію.
Чи зможе Cerebras підтримувати оцінку понад 100 мільярдів доларів, залежатиме від її здатності одночасно вирішувати всі ці виклики: будувати дата-центри з безпрецедентною швидкістю, виробляти wafer-scale чіпи у великих масштабах через єдиного виробника, навігувати експортним контролем у своїх найприбутковіших міжнародних відносинах та конкурувати з Nvidia, яка показала, що не віддасть ринок інференсу без бою.
Але Cerebras завжди базувалася на готовності спробувати те, що інші вважали неможливим. Інтеграція на рівні пластин ставила в глухий кут напівпровідникову промисловість протягом усього її існування. Тепер чіп розміром з обідню тарілку — колись відкинутий як інженерна диковина — забезпечує найшвидший інференс ШІ на планеті, обслуговує провідну лабораторію ШІ у світі та щойно дебютував на Nasdaq з оцінкою, яка затьмарює компанії, набагато старші за неї. Світ, як виявилося, був готовий. Як сказав Хок, згадуючи шлях від лабораторії до торговельного майданчика: «IPO — це не кінець історії. Це початок».
Прогноз ІТ-Блогу: Очікується, що Cerebras продовжить агресивно нарощувати свої потужності для інференсу, особливо в хмарному сегменті, щоб задовольнити зростаючий попит від таких гігантів, як OpenAI та AWS. Ключовим викликом буде балансування між швидким розширенням інфраструктури та забезпеченням прибутковості, водночас створюючи міцніші відносини з ширшим колом клієнтів, щоб зменшити залежність від кількох великих партнерів.
За матеріалами: venturebeat.com
