Амазон планира да внедри AI модели върху огромни чипове от Cerebras.
Amazon и Cerebras обединяват сили за ускоряване на големи езикови модели
Amazon Web Services (AWS) обявила, че в средата на 2026 г. ще започне да използва чиповете на стартиращата компания Cerebras Systems Inc. наред с собствените си процесори Trainium. Според информацията на самата компания това ще позволи създаване „оптимални условия“ за стартиране и обслужване на големи езикови модели (LLM). Детайлите по финансовата страна на сделката все още не са разкривани.
Какво точно ще се случва
* Чиповете Trainium 3 от AWS ще обработват потребителските заявки – „разбирайки“ тяхното значение.
* След това чиповете Cerebras Wafer‑Scale Engine (WSE) ще се занимават с генерирането на отговор.
Така двата специализирани ускорителя работят заедно и осигуряват инференс–числения за LLM.
> „Взаимодействието между различните компоненти обикновено забавя процеса,“ – отбелязва Nafea Bshara, вицепрезидент на AWS. – „Но се стремим да получим предимство, като използваме чипове, които по-бързо обработват инференс.“
Предимството е особено видимо там, където важна е скоростта на реакция: например при стъпково писане на код или генериране на текст в реално време.
Защо това е важно
* Amazon е един от най-големите облачни доставчици и активен потребител на GPU‑производители Nvidia. В момента компанията разработва собствени AI‑чипове, за да повиши ефективността на центровете за обработка на данни и да предложи клиентите уникални услуги.
* За Cerebras партньорството с AWS е първото голямо споразумение от гигантите в дата-центърната индустрия, което увеличава разпознаваемостта на марката пред потенциалния пазар. Това също е важно преди планираното им IPO.
Резултат
AWS и Cerebras заедно създават нова инфраструктура за големи езикови модели: чиповете Trainium 3 обработват заявки, а WSE генерират отговори. Въпреки че отделният сервис само на Trainium може да бъде по‑евтин, комбинираното решение обещава значително ускорение, където „времето е пари“. Това засилва позициите на Amazon като голям клиент на Nvidia и едновременно с това продвига собствените AI‑чипове на компанията към по‑висока ефективност.
Коментари (0)
Споделете мнението си — моля, бъдете учтиви и по темата.
Влезте, за да коментирате