Скин на НГ, перетяжка
Скин на НГ, перетяжка
Скин на НГ, перетяжка

Официально: обновленная Siri будет основываться на модели Google Gemini

Новости

Получается, сдались?

42 открытий963 показов
Официально: обновленная Siri будет основываться на модели Google Gemini

Apple официально подтвердила, что обновленная версия Siri будет работать на базе модели Google Gemini.

Фактически, компания признала ограничения собственных ИИ-наработок и решила опереться на внешнюю технологию для ключевых функций голосового ассистента.

Таким образом, свежее заявление подтверждает более ранние утечки и сообщения журналистов, которые Apple до последнего не комментировала.

Важно отметить, что речь идет не о временном эксперименте, а о фундаментальном решении в архитектуре Apple Intelligence.

Что именно будет делать Gemini в Siri

Еще в ноябре 2025 года журналист Bloomberg Марк Гурман писал, что Apple планирует использовать кастомизированную версию Gemini с примерно 1,2 трлн параметров.

Для сравнения: текущая облачная модель Siri насчитывает около 1,5 млрд параметров. То есть разрыв крайне заметный.

Теперь же эта информация подтвердилась официально. В заявлении для CNBC, Apple сообщила, что после оценки различных вариантов, компания выбрала технологию Google как «наиболее подходящую основу» для своих Foundation Models. Google также подтвердила сотрудничество.

Как устроена новая архитектура Siri

Обновленная Siri будет состоять из трех ключевых компонентов.

Первый — query planner, слой принятия решений, который определяет, как именно выполнить запрос пользователя: через веб, личные данные или сторонние приложения.

Второй — summarizer, отвечающий за сжатие и пересказ текстов, уведомлений и веб-страниц. Именно эти два элемента будет обслуживать Gemini в облаке.

Третий компонент — система знаний для ответов на общие вопросы. Он останется за on-device моделями Apple. Таким образом компания пытается сохранить баланс между контролем над данными и качеством ИИ.

Что изменится для пользователей

Apple планирует внедрить ключевые функции новой Siri уже ближайшей весной вместе с iOS 26.4. Среди них — контекстные действия внутри приложений, работа с личными данными и «понимание экрана», когда ассистент сможет выполнять задачи, исходя из того, что сейчас отображается на устройстве.

Шаг к мульти-модельному будущему

Apple также дала понять, что не собирается ограничиваться одной моделью. Сейчас Siri уже интегрирована с ChatGPT, а в будущем компания может подключать и другие ИИ через Model Context Protocol (MCP) — открытый стандарт, предложенный Anthropic.

Фактически, Apple движется к модели, где Siri станет оркестратором разных ИИ-систем.

Следите за новыми постами
Следите за новыми постами по любимым темам
42 открытий963 показов