Одним из первых анонсов на WWDC этого года стало то, что впервые сторонние разработчики получат прямой доступ к локальному ИИ Apple через новый фреймворк Foundation Models.

Но как эти модели на самом деле соотносятся с существующими аналогами?

Благодаря Foundation Models разработчики теперь могут использовать тот же стек локального ИИ, что и встроенные приложения Apple.

Другими словами, это означает, что теперь можно внедрять ИИ-функции — например, суммирование документов, извлечение ключевой информации из текста или даже генерацию структурированного контента — полностью офлайн, без каких-либо затрат на API.

Но насколько хороши модели Apple в действительности?

Судя по внутренним оценкам компании, результаты весьма впечатляющие, особенно если учитывать баланс между размером, скоростью и эффективностью.

В тестах Apple локальная модель с ~3 млрд параметров превзошла аналогичные облегчённые мультимодальные модели, такие как InternVL-2.5 и Qwen-2.5-VL-3B, в задачах обработки изображений, показав лучший результат в 46% и 50% случаев соответственно.

В текстовых задачах она держалась на уровне более крупных моделей вроде Gemma-3-4B, а в некоторых локализациях английского и многоязычных тестах даже опережала их.

То есть новые локальные модели Apple способны стабильно работать для множества реальных сценариев, не требуя облачных вычислений или передачи данных с устройства.

Что касается серверной модели Apple, она показала себя лучше, чем LLaMA-4-Scout, и даже превзошла Qwen-2.5-VL-32B в понимании изображений.

Впрочем, GPT-4o по-прежнему остаётся безусловным лидером.

Главное здесь не просто в том, что модели Apple стали лучше.

Они теперь встроены в систему.

Благодаря Foundation Models разработчикам больше не нужно включать тяжёлые языковые модели в свои приложения для офлайн-работы.

Это означает меньший размер приложений и отсутствие необходимости подключаться к облаку для большинства задач.

Результат?

Больше конфиденциальности для пользователей и нулевые затраты на API для разработчиков — экономия, которая в конечном итоге выгодна всем. Apple заявляет, что модели оптимизированы для структурированных ответов с помощью нативной системы «управляемой генерации» на Swift, позволяющей встраивать ответы модели напрямую в логику приложения.

Для образовательных, рабочих и коммуникационных приложений это может стать переломным моментом, предлагая преимущества больших языковых моделей без задержек, затрат или компромиссов в приватности.

В итоге модели Apple — не самые мощные в мире, но им это и не нужно.

Они достаточно хороши, быстры и теперь доступны всем разработчикам бесплатно, прямо на устройстве и офлайн.

Возможно, это не так эффектно, как анонсы более мощных моделей, но на практике может привести к волне по-настоящему полезных ИИ-функций в сторонних iOS-приложениях, не требующих облака.

И для Apple, похоже, именно в этом и была цель.