Ollama внедряет MLX для ускорения работы ИИ на Mac с чипами Apple
В результате достигается значительное ускорение работы Ollama на всех устройствах с Apple Silicon. На чипах Apple M5, M5 Pro и M5 Max Ollama использует новые нейронные ускорители GPU для ускорения, как времени до первого токена, так и скорости генерации. С этим обновлением, по словам разработчиков Ollama, теперь быстрее работают персональные ассистенты, такие, как OpenClaw, а также кодирующие агенты, «такие, как Claude Code, OpenCode или Codex». Есть лишь одно предостережение: Ollama рекомендует пользователям «убедиться, что на Mac установлено более 32 ГБ единой памяти», что может не соответствовать текущим возможностям многих пользователей, заинтересованных в локальном запуске больших языковых моделей. Как бы то ни было, чтобы узнать больше об Ollama.