Оллама сега поддържа хардуерно ускоряване на чипове Apple M5, ако е инсталирано 32 GB RAM
Ollama — приложение за локално стартиране на модели с изкуствен интелект е вече по-бързо на Mac‑чиповете M5
Как изглежда
Нова версия: Ollama 0.19
Поддържани ОС: Windows, macOS, Linux
Аппаратно ускорение: Само за чипове Apple M5 (M5 Pro, M5 Max)
Изисквания към паметта: Минимум 32 GB унифицирана RAM
Какво е променено
Ollama позволява на потребителите да зареждат и стартират модели с изкуствен интелект директно на своето устройство. За разлика от облачните услуги като ChatGPT, тук не се нуждаете от постоянно интернет свързване.
От версия 0.19 разработчиците добавиха поддръжка за Apple MLX – рамката за машинно обучение, както и унифицирана памет (Unified Memory Architecture). Това ускорява работата на модела върху новите чипове Apple M5, намалявайки времето до първия токен и увеличавайки общата скорост на генериране.
Как работи
* Нейроускорители: Ollama използва специализирани невронни блокове в чиповете M5, което прави изчисляването на токени по-бързо.
* Модели: По-бързо функционират както персонални ИИ‑агенти (например OpenClaw), така и по-големи системи – OpenCode, Anthropic Claude Code, OpenAI Codex и други.
Ограничения
1. Ускорението е достъпно само на чипове Apple M5 (M5 Pro/Max).
2. На компютъра трябва да има минимум 32 GB унифицирана памет; в противен случай ускорението няма да работи.
Следователно, ако имате Mac с чип M5 и достатъчно RAM, ще можете значително да увеличите производителността на локалното ИИ‑приложение Ollama.
Коментари (0)
Споделете мнението си — моля, бъдете учтиви и по темата.
Влезте, за да коментирате