Оллама сега поддържа хардуерно ускоряване на чипове Apple M5, ако е инсталирано 32 GB RAM

Оллама сега поддържа хардуерно ускоряване на чипове Apple M5, ако е инсталирано 32 GB RAM

23 software

Ollama — приложение за локално стартиране на модели с изкуствен интелект е вече по-бързо на Mac‑чиповете M5

Как изглежда
Нова версия: Ollama 0.19
Поддържани ОС: Windows, macOS, Linux
Аппаратно ускорение: Само за чипове Apple M5 (M5 Pro, M5 Max)
Изисквания към паметта: Минимум 32 GB унифицирана RAM

Какво е променено
Ollama позволява на потребителите да зареждат и стартират модели с изкуствен интелект директно на своето устройство. За разлика от облачните услуги като ChatGPT, тук не се нуждаете от постоянно интернет свързване.

От версия 0.19 разработчиците добавиха поддръжка за Apple MLX – рамката за машинно обучение, както и унифицирана памет (Unified Memory Architecture). Това ускорява работата на модела върху новите чипове Apple M5, намалявайки времето до първия токен и увеличавайки общата скорост на генериране.

Как работи
* Нейроускорители: Ollama използва специализирани невронни блокове в чиповете M5, което прави изчисляването на токени по-бързо.
* Модели: По-бързо функционират както персонални ИИ‑агенти (например OpenClaw), така и по-големи системи – OpenCode, Anthropic Claude Code, OpenAI Codex и други.

Ограничения
1. Ускорението е достъпно само на чипове Apple M5 (M5 Pro/Max).
2. На компютъра трябва да има минимум 32 GB унифицирана памет; в противен случай ускорението няма да работи.

Следователно, ако имате Mac с чип M5 и достатъчно RAM, ще можете значително да увеличите производителността на локалното ИИ‑приложение Ollama.

Коментари (0)

Споделете мнението си — моля, бъдете учтиви и по темата.

Все още няма коментари. Оставете коментар и споделете мнението си!

За да оставите коментар, моля, влезте в профила си.

Влезте, за да коментирате