Amazon запускає ШІ-моделі на гігантських чипах Cerebras

Amazon планує інтегрувати чипи стартапу Cerebras Systems Inc. поряд із власними процесорами Trainium. За заявами компанії, таке поєднання створить оптимальні умови для розгортання великих мовних моделей. Платформа Amazon Web Services (AWS), один із провідних постачальників хмарних обчислювальних потужностей, має намір запровадити новий сервіс, заснований на партнерстві з Cerebras, у другій половині 2026 року. Фінансові деталі угоди не розголошуються.

 Источник изображения: Cerebras

Джерело зображення: Cerebras

Стратегічне партнерство для задоволення зростаючого попиту

Партнерство між Amazon та Cerebras є черговою спробою задовольнити колосальний попит на інфраструктуру для обчислень у сфері штучного інтелекту. За словами Нафеа Бшари, віце-президента Amazon Web Services, обидві компанії готувалися до цієї співпраці протягом кількох років. Він також зазначив, що платформа AWS планує задіяти стільки чипів для збільшення обчислювальних потужностей, скільки буде необхідно для потреб клієнтів.

Значення для Cerebras та ринку

Для Cerebras, яка планує первинне публічне розміщення акцій (IPO), співпраця з таким гігантом, як Amazon, є надзвичайно важливою для підвищення впізнаваності компанії на потенційно величезному ринку. AWS стала першим серед найбільших операторів центрів обробки даних, хто взяв на себе зобов’язання інтегрувати чипи Cerebras у свою інфраструктуру. Це свідчить про зростаючу тенденцію до диверсифікації постачальників обладнання для ШІ-обчислень, що посилює конкуренцію на ринку.

Синергія чипів для оптимізації інференс-обчислень

Згідно з наявною інформацією, чипи Amazon та Cerebras будуть працювати в комплексі для забезпечення інференс-обчислень, тобто для розгортання великих мовних моделей та генерації відповідей на вхідні запити. Чипи Amazon Trainium 3 відповідатимуть за аналіз та розуміння користувацьких запитів, тоді як чипи Cerebras Wafer Scale Engine будуть задіяні для генерації відповідей. Зазвичай, такий підхід може мати суттєвий недолік через уповільнення процесу взаємодії між різними компонентами. Однак у цьому випадку компанії прагнуть отримати перевагу, використовуючи спеціалізовані чипи, які здатні ефективніше обробляти завдання інференсу. Покращення продуктивності буде особливо помітним у сферах, що потребують інтенсивної взаємодії з користувачем, наприклад, під час ітеративного написання програмного коду.

Баланс між вартістю та продуктивністю

«Хоча сервіс, що працює виключно на чипах Trainium, ймовірно, буде дешевшим, нова комбінована пропозиція стане привабливою там, де час є критично важливим фактором», — вважає Бшара. Amazon продовжує бути значним клієнтом Nvidia, водночас активно розробляючи власні ШІ-чипи. Ці зусилля спрямовані на покращення економічних показників власних центрів обробки даних компанії та надання клієнтам унікальних послуг, що дозволяє їй зберігати конкурентну перевагу в умовах швидкого розвитку екосистеми штучного інтелекту.

Головний підсумок від ІТ-Блогу: Amazon розширює свою хмарну інфраструктуру для ШІ, інтегруючи чипи Cerebras разом із власними розробками. Це партнерство спрямоване на оптимізацію продуктивності великих мовних моделей, особливо в інференс-задачах, що потенційно знизить вартість і підвищить швидкість обробки запитів для клієнтів AWS.

Оригінал статті: 3dnews.ru

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *