Амазон планира да внедри AI модели върху огромни чипове от Cerebras.

Амазон планира да внедри AI модели върху огромни чипове от Cerebras.

8 hardware

Amazon и Cerebras обединяват сили за ускоряване на големи езикови модели

Amazon Web Services (AWS) обявила, че в средата на 2026 г. ще започне да използва чиповете на стартиращата компания Cerebras Systems Inc. наред с собствените си процесори Trainium. Според информацията на самата компания това ще позволи създаване „оптимални условия“ за стартиране и обслужване на големи езикови модели (LLM). Детайлите по финансовата страна на сделката все още не са разкривани.

Какво точно ще се случва
* Чиповете Trainium 3 от AWS ще обработват потребителските заявки – „разбирайки“ тяхното значение.

* След това чиповете Cerebras Wafer‑Scale Engine (WSE) ще се занимават с генерирането на отговор.

Така двата специализирани ускорителя работят заедно и осигуряват инференс–числения за LLM.

> „Взаимодействието между различните компоненти обикновено забавя процеса,“ – отбелязва Nafea Bshara, вицепрезидент на AWS. – „Но се стремим да получим предимство, като използваме чипове, които по-бързо обработват инференс.“

Предимството е особено видимо там, където важна е скоростта на реакция: например при стъпково писане на код или генериране на текст в реално време.

Защо това е важно
* Amazon е един от най-големите облачни доставчици и активен потребител на GPU‑производители Nvidia. В момента компанията разработва собствени AI‑чипове, за да повиши ефективността на центровете за обработка на данни и да предложи клиентите уникални услуги.

* За Cerebras партньорството с AWS е първото голямо споразумение от гигантите в дата-центърната индустрия, което увеличава разпознаваемостта на марката пред потенциалния пазар. Това също е важно преди планираното им IPO.

Резултат
AWS и Cerebras заедно създават нова инфраструктура за големи езикови модели: чиповете Trainium 3 обработват заявки, а WSE генерират отговори. Въпреки че отделният сервис само на Trainium може да бъде по‑евтин, комбинираното решение обещава значително ускорение, където „времето е пари“. Това засилва позициите на Amazon като голям клиент на Nvidia и едновременно с това продвига собствените AI‑чипове на компанията към по‑висока ефективност.

Коментари (0)

Споделете мнението си — моля, бъдете учтиви и по темата.

Все още няма коментари. Оставете коментар и споделете мнението си!

За да оставите коментар, моля, влезте в профила си.

Влезте, за да коментирате