GLM-5.1: китайская ИИ-модель набрала 94,6% от Claude Opus в кодинге

Обложка: GLM-5.1: китайская ИИ-модель набрала 94,6% от Claude Opus в кодинге

Китайская компания Z.ai (ранее Zhipu AI / 智谱AI) выпустила GLM-5.1 — обновлённую версию своей флагманской языковой модели, которая в кодинг-бенчмарках вплотную подобралась к Claude Opus 4.6 от Anthropic. Модель доступна всем пользователям GLM Coding Plan.

В тестировании через Claude Code — инструмент самой Anthropic — GLM-5.1 набрала 45,3 балла против 47,9 у Claude Opus 4.6. Разрыв составил всего 2,6 балла, то есть модель достигла 94,6% от уровня Opus. Для сравнения: предыдущая версия GLM-5 набирала лишь 35,4 балла — рост на 28% за полтора месяца.

Главное: GLM-5.1 набрала 45,3 балла в Coding Evaluation (94,6% от Claude Opus 4.6). Рост на 28% по сравнению с GLM-5. Модель обещают выложить в open source под лицензией MIT. Подписка на Coding Plan — от $3/мес.
Скриншот поста Z.ai в X (Twitter) с результатами Coding Evaluation: Claude Opus 4.6 — 47,9, GLM-5.1 — 45,3, GLM-5 — 35,4
Пост Z.ai в X с результатами Coding Evaluation. Источник: x.com/Zai_org

Что под капотом у GLM-5.1

GLM-5.1 построена на фундаменте GLM-5 (Generalized Language Model) — модели с архитектурой Mixture of Experts (MoE, смесь экспертов), которая вышла в феврале 2026 года. Ключевые параметры GLM-5:

  • 744 млрд параметров (40 млрд активных при инференсе)
  • 28,5 трлн токенов данных для предобучения
  • 200K контекстное окно, до 128K токенов на выходе
  • Интегрирован DeepSeek Sparse Attention для снижения стоимости деплоя
  • Обучена полностью на чипах Huawei Ascend 910B — без единого GPU от NVIDIA
  • Открытые веса под лицензией MIT

Точные параметры самой GLM-5.1 пока не раскрыты — полный технический отчёт ещё не опубликован. Однако компания подтвердила, что GLM-5.1 тоже будет open source. Об этом заявил глава Z.ai Ли Цзысюань (Li Zixuan) 20 марта в X: «Don't panic. GLM-5.1 will be open source».

Бенчмарки: почти на уровне Opus

Примечательно, что тестирование проводилось через Claude Code — фреймворк, оптимизированный под модели Claude. Это делает результат GLM-5.1 ещё более впечатляющим — по сути, модель играла на «чужом поле».

Кроме кодинг-теста, базовая GLM-5 показала сильные результаты в других бенчмарках:

  • SWE-bench Verified: 77,8% — лучший результат среди open-source моделей
  • Terminal Bench 2.0: 56,2 балла — тоже SOTA среди открытых моделей
  • Нативная поддержка MCP (Model Context Protocol)

Сколько стоит и как подключить

GLM-5.1 доступна через подписку GLM Coding Plan на платформе Z.ai. Три тарифа:

  • Lite — $10/мес ($3 промо за первый месяц), 120 запросов за 5 часов
  • Pro — $30/мес ($15 промо), 600 запросов за 5 часов
  • Max — расширенные лимиты, 4 000 поисковых запросов в месяц

Для сравнения: подписка Claude Max стоит $100–200/мес. При этом Coding Plan совместим с Claude Code, Cline, OpenClaw и другими популярными инструментами — достаточно сменить API-эндпоинт.

Отдельный API для GLM-5.1 пока не доступен. API GLM-5 работает по цене $1 за 1 млн входных токенов и $3,20 за 1 млн выходных.

Почему это важно

GLM-5.1 — первая open-source модель (точнее, скоро станет таковой), которая приблизилась к закрытому флагману на расстояние менее 3 баллов в кодинг-бенчмарке. При этом она:

  • Обучена без чипов NVIDIA — полностью на китайском железе Huawei
  • Стоит в 3–6 раз дешевле аналогичной подписки Claude
  • Будет доступна для локального запуска после публикации весов

Сообщество LocalLLaMA на Reddit уже активно обсуждает модель. Пользователи отмечают, что связка GLM-5-Turbo для повседневных задач и GLM-5.1 для планирования даёт отличные результаты при минимальных затратах.

FAQ

Чем GLM-5.1 отличается от GLM-5?

Главное отличие — кодинг-способности: 45,3 балла против 35,4, рост на 28%. Точная архитектура GLM-5.1 пока не раскрыта, но базовые параметры (744B, MoE, 200K контекст) как минимум сохранены.

Можно ли запустить GLM-5.1 локально?

Пока нет — веса ещё не опубликованы. Но Z.ai подтвердила, что модель выйдет в open source под MIT-лицензией. Для локального запуска GLM-5 (744B) требуется минимум 4×H200 или аналогичная конфигурация.

GLM-5.1 лучше Claude Opus 4.6?

В кодинге — почти на уровне (94,6%). Однако Claude Opus 4.6 сохраняет преимущество в контекстном окне (1M против 200K токенов), глубоком рассуждении и сложных мультишаговых агентных сценариях.

Источники: Z.ai (X/Twitter), Z.ai Developer Docs, r/LocalLLaMA