Китайская компания Z.ai (ранее Zhipu AI / 智谱AI) выпустила GLM-5.1 — обновлённую версию своей флагманской языковой модели, которая в кодинг-бенчмарках вплотную подобралась к Claude Opus 4.6 от Anthropic. Модель доступна всем пользователям GLM Coding Plan.
В тестировании через Claude Code — инструмент самой Anthropic — GLM-5.1 набрала 45,3 балла против 47,9 у Claude Opus 4.6. Разрыв составил всего 2,6 балла, то есть модель достигла 94,6% от уровня Opus. Для сравнения: предыдущая версия GLM-5 набирала лишь 35,4 балла — рост на 28% за полтора месяца.
Главное: GLM-5.1 набрала 45,3 балла в Coding Evaluation (94,6% от Claude Opus 4.6). Рост на 28% по сравнению с GLM-5. Модель обещают выложить в open source под лицензией MIT. Подписка на Coding Plan — от $3/мес.
Что под капотом у GLM-5.1
GLM-5.1 построена на фундаменте GLM-5 (Generalized Language Model) — модели с архитектурой Mixture of Experts (MoE, смесь экспертов), которая вышла в феврале 2026 года. Ключевые параметры GLM-5:
- 744 млрд параметров (40 млрд активных при инференсе)
- 28,5 трлн токенов данных для предобучения
- 200K контекстное окно, до 128K токенов на выходе
- Интегрирован DeepSeek Sparse Attention для снижения стоимости деплоя
- Обучена полностью на чипах Huawei Ascend 910B — без единого GPU от NVIDIA
- Открытые веса под лицензией MIT
Точные параметры самой GLM-5.1 пока не раскрыты — полный технический отчёт ещё не опубликован. Однако компания подтвердила, что GLM-5.1 тоже будет open source. Об этом заявил глава Z.ai Ли Цзысюань (Li Zixuan) 20 марта в X: «Don't panic. GLM-5.1 will be open source».
Бенчмарки: почти на уровне Opus
Примечательно, что тестирование проводилось через Claude Code — фреймворк, оптимизированный под модели Claude. Это делает результат GLM-5.1 ещё более впечатляющим — по сути, модель играла на «чужом поле».
Кроме кодинг-теста, базовая GLM-5 показала сильные результаты в других бенчмарках:
- SWE-bench Verified: 77,8% — лучший результат среди open-source моделей
- Terminal Bench 2.0: 56,2 балла — тоже SOTA среди открытых моделей
- Нативная поддержка MCP (Model Context Protocol)
Сколько стоит и как подключить
GLM-5.1 доступна через подписку GLM Coding Plan на платформе Z.ai. Три тарифа:
- Lite — $10/мес ($3 промо за первый месяц), 120 запросов за 5 часов
- Pro — $30/мес ($15 промо), 600 запросов за 5 часов
- Max — расширенные лимиты, 4 000 поисковых запросов в месяц
Для сравнения: подписка Claude Max стоит $100–200/мес. При этом Coding Plan совместим с Claude Code, Cline, OpenClaw и другими популярными инструментами — достаточно сменить API-эндпоинт.
Отдельный API для GLM-5.1 пока не доступен. API GLM-5 работает по цене $1 за 1 млн входных токенов и $3,20 за 1 млн выходных.
Почему это важно
GLM-5.1 — первая open-source модель (точнее, скоро станет таковой), которая приблизилась к закрытому флагману на расстояние менее 3 баллов в кодинг-бенчмарке. При этом она:
- Обучена без чипов NVIDIA — полностью на китайском железе Huawei
- Стоит в 3–6 раз дешевле аналогичной подписки Claude
- Будет доступна для локального запуска после публикации весов
Сообщество LocalLLaMA на Reddit уже активно обсуждает модель. Пользователи отмечают, что связка GLM-5-Turbo для повседневных задач и GLM-5.1 для планирования даёт отличные результаты при минимальных затратах.
FAQ
Чем GLM-5.1 отличается от GLM-5?
Главное отличие — кодинг-способности: 45,3 балла против 35,4, рост на 28%. Точная архитектура GLM-5.1 пока не раскрыта, но базовые параметры (744B, MoE, 200K контекст) как минимум сохранены.
Можно ли запустить GLM-5.1 локально?
Пока нет — веса ещё не опубликованы. Но Z.ai подтвердила, что модель выйдет в open source под MIT-лицензией. Для локального запуска GLM-5 (744B) требуется минимум 4×H200 или аналогичная конфигурация.
GLM-5.1 лучше Claude Opus 4.6?
В кодинге — почти на уровне (94,6%). Однако Claude Opus 4.6 сохраняет преимущество в контекстном окне (1M против 200K токенов), глубоком рассуждении и сложных мультишаговых агентных сценариях.
Источники: Z.ai (X/Twitter), Z.ai Developer Docs, r/LocalLLaMA