
Скриншоты iPhone получат три новые функции в iOS 26
iOS 26: Apple делает скриншоты умнее, чем когда-либо
Скриншоты — одна из самых простых, но при этом самых полезных функций смартфонов. Мы делаем их десятками: чтобы сохранить важную информацию, поделиться мемом или зафиксировать ошибку в приложении. Но в iOS 26 Apple кардинально переосмысливает эту привычную возможность, превращая статичные изображения в интерактивные инструменты с искусственным интеллектом. Три новые функции — "Add to Calendar", "Image Search" и "Ask ChatGPT" — обещают изменить то, как мы взаимодействуем с экраном iPhone.
Первая новинка, "Add to Calendar", автоматически распознаёт даты и события на скриншоте и предлагает добавить их в стандартное приложение "Календарь". Например, если вы сделали снимок экрана с анонсом конференции или расписанием поездов, iOS 26 выделит ключевые данные и создаст событие в один тап. Это особенно удобно для тех, кто часто планирует дела на ходу. В России, где сервисы вроде "Яндекс.Расписаний" популярны, такая функция может сэкономить немало времени.
Вторая функция, "Image Search", выводит поиск по изображениям на новый уровень. Если раньше Google Lens и аналоги позволяли искать похожие картинки или текст, то Apple интегрирует эту возможность прямо в системный интерфейс. Теперь, сделав скриншот товара, достопримечательности или даже растения, можно мгновенно найти похожие варианты или дополнительную информацию. При этом Apple заявляет, что её алгоритмы работают точнее, чем у конкурентов, особенно с нестандартными запросами. Для российских пользователей это может означать более быстрый поиск аналогов товаров или сравнение цен без ручного ввода.
Но самая впечатляющая новинка — "Ask ChatGPT". Благодаря партнёрству с OpenAI, iOS 26 позволяет "спросить" у ИИ о содержимом скриншота. Например, можно загрузить фото меню ресторана и узнать, какие блюда веганские, или скинуть скрин ошибки и получить объяснение. Более того, пользователи могут выделять конкретные области скриншота, чтобы уточнить запрос. В России, где ChatGPT пока не так глубоко интегрирован в сервисы, как на Западе, это может стать прорывом — особенно для тех, кто работает с иностранными источниками или технической документацией.
К сожалению, все эти функции требуют Apple Intelligence — фирменной системы ИИ от Apple, которая работает только на новых устройствах с чипами A17 Pro и M4 (или новее). Это значит, что владельцы iPhone 15 Pro и свежих iPad смогут опробовать новинки первыми, а остальным придётся ждать апгрейда. Впрочем, учитывая, как Apple развивала визуальный интеллект в iOS 18, можно ожидать, что со временем возможности станут доступнее. Например, в России, где цикл обновления гаджетов длиннее, чем в США, это может подтолкнуть пользователей к покупке новых моделей.
Author's take:
Как человек, который тестирует каждую новую iOS с момента iPhone 4, я вижу в этих изменениях не просто "фичи", а фундаментальный сдвиг в том, как мы используем смартфоны. Apple постепенно превращает iPhone в универсальный "пульт управления" реальностью — где камера и ИИ заменяют ручной ввод. Для России это особенно актуально: местные сервисы вроде "Яндекса" тоже активно развивают компьютерное зрение, и теперь у них появится серьёзный конкурент прямо в системе. Думаю, через пару лет мы будем делать скриншоты не для сохранения информации, а для мгновенного взаимодействия с миром — и iOS 26 делает первый шаг в этом направлении.