Официально: обновленная Siri будет основываться на модели Google Gemini
Новости
Получается, сдались?
42 открытий963 показов
Apple официально подтвердила, что обновленная версия Siri будет работать на базе модели Google Gemini.
Фактически, компания признала ограничения собственных ИИ-наработок и решила опереться на внешнюю технологию для ключевых функций голосового ассистента.
Таким образом, свежее заявление подтверждает более ранние утечки и сообщения журналистов, которые Apple до последнего не комментировала.
Важно отметить, что речь идет не о временном эксперименте, а о фундаментальном решении в архитектуре Apple Intelligence.
Что именно будет делать Gemini в Siri
Еще в ноябре 2025 года журналист Bloomberg Марк Гурман писал, что Apple планирует использовать кастомизированную версию Gemini с примерно 1,2 трлн параметров.
Для сравнения: текущая облачная модель Siri насчитывает около 1,5 млрд параметров. То есть разрыв крайне заметный.
Теперь же эта информация подтвердилась официально. В заявлении для CNBC, Apple сообщила, что после оценки различных вариантов, компания выбрала технологию Google как «наиболее подходящую основу» для своих Foundation Models. Google также подтвердила сотрудничество.
Как устроена новая архитектура Siri
Обновленная Siri будет состоять из трех ключевых компонентов.
Первый — query planner, слой принятия решений, который определяет, как именно выполнить запрос пользователя: через веб, личные данные или сторонние приложения.
Второй — summarizer, отвечающий за сжатие и пересказ текстов, уведомлений и веб-страниц. Именно эти два элемента будет обслуживать Gemini в облаке.
Третий компонент — система знаний для ответов на общие вопросы. Он останется за on-device моделями Apple. Таким образом компания пытается сохранить баланс между контролем над данными и качеством ИИ.
Что изменится для пользователей
Apple планирует внедрить ключевые функции новой Siri уже ближайшей весной вместе с iOS 26.4. Среди них — контекстные действия внутри приложений, работа с личными данными и «понимание экрана», когда ассистент сможет выполнять задачи, исходя из того, что сейчас отображается на устройстве.
Шаг к мульти-модельному будущему
Apple также дала понять, что не собирается ограничиваться одной моделью. Сейчас Siri уже интегрирована с ChatGPT, а в будущем компания может подключать и другие ИИ через Model Context Protocol (MCP) — открытый стандарт, предложенный Anthropic.
Фактически, Apple движется к модели, где Siri станет оркестратором разных ИИ-систем.
42 открытий963 показов


