GPU против CPU: что нужно знать для работы с ИИ в 2025
Почему обычные серверы больше не справляются — и что это значит для тех, кто выбирает хостинг
634 открытий4К показов
Нейросети, видеоаналитика, генерация изображений, синтез речи — эти задачи всё чаще звучат не только в лабораториях и стартапах, но и в брифах компаний, которые вчера занимались логистикой, e-commerce или поддержкой клиентов. Всё это требует не просто мощностей, а особой инфраструктуры на базе GPU.
Екатерина Уфимцева из Cloud4Box рассказывает, почему GPU-серверы становятся новым стандартом, и что важно знать тем, кто выбирает хостинг под такие задачи.
Почему ИИ требует именно GPU, а не CPU
Главное преимущество GPU (графические процессоры) — это архитектура, ориентированная на параллельные вычисления. В то время как CPU обрабатывает задачи последовательно (пусть даже с несколькими потоками), GPU запускает десятки тысяч операций одновременно, что особенно важно в задачах машинного обучения, генерации изображений или работы с видео.
Сравните: обучение нейросети на CPU может занимать недели, тогда как на сервере с несколькими GPU — часы. Именно поэтому почти все крупные модели ИИ, от ChatGPT до Stable Diffusion, обучаются и запускаются на GPU-инфраструктуре.
По свежим данным (исследование, апрель 2025), обучение моделей машинного обучения на GPU оказалось в 159 раз быстрее, чем на CPU — при прочих равных. Использовались стандартные open-source библиотеки, такие как cuML от NVIDIA.
Как изменился рынок GPU — и почему всё так дорого
Сегодня спрос на GPU определяется не только играми или графикой. В 2017-2020 годах видеокарты массово закупались для майнинга Ethereum.
После перехода на Proof-of-Stake в 2022 году, рынок немного остыл, но ненадолго — пришёл бум генеративного ИИ. Начиная с конца 2022 года, спрос на GPU снова превысил предложение: крупные игроки, включая OpenAI, Google, Meta* и Microsoft, начали выкупать мощности оптом.
NVIDIA, на чьи чипы ориентированы почти все нейросетевые фреймворки, в 2024 году сообщала, что на поставку серверных моделей H100 в ряде стран нужно ждать до 6 месяцев. Отдельно отметим санкционную политику властей США, которые устанавливают ограничения на поставку чипов определённой мощности в отдельные страны.
Это подтверждает масштабную нехватку мощностей. Bloomberg сообщает, что именно из-за GPU-бума NVIDIA в июне 2024 года стала самой дорогой компанией в мире, обогнав Microsoft и Apple.
Как эволюционировала архитектура GPU и зачем это знать? Эволюция идёт без революций: больше ядер, больше памяти, выше пропускная способность. За последние 5 лет объём видеопамяти на серверных GPU вырос с 16-24 ГБ до 80-100 ГБ. Например:
- NVIDIA A100 — 80 ГБ;
- NVIDIA H100 — 80 ГБ (в базовой версии), 94 ГБ — у модификации H100 SXM5.
Кроме того, появилась новая компоновка — разъёмы SXM4/5, позволяющие размещать карты высокой плотности ближе друг к другу и повышать энергоэффективность.
Эти улучшения позволяют запускать более тяжёлые модели, ускорять инференс и снижать время обучения, но создают серьёзную нагрузку на инфраструктуру.
Какие ресурсы требуют современные GPU
Поставить видеокарту в обычный сервер уже не получится. GPU-сервер уже отдельный класс оборудования. Он требует:
- более мощных блоков питания;
- специализированных корпусов и систем охлаждения;
- высокой пропускной способности сети (до 400 Гбит/с);
- продуманной архитектуры стойки.
Для понимания: стандартная серверная стойка проектируется под нагрузку до 8 кВт. Один сервер с четырьмя A100 — это уже 20-30 кВт. А стойка с NVIDIA GB300 NVL72 потребляет до 132 кВт. Это недостижимо для большинства дата-центров без модернизации.
Даже продвинутые дата-центры редко проектируются на стойки с нагрузкой выше 50-80 кВт. Воздушного охлаждения уже недостаточно — требуется жидкостное. Нужно обновление стоечных коммутаторов и всей сетевой архитектуры. Иными словами, обычный дата-центр больше не подходит.
Если сеть не выдерживает 400 Гбит/с на сервер, возникает узкое место. А если в стойке нет места для жидкостного охлаждения, приходится выносить часть нагрузок.
Становится важно выбирать площадку, где уже есть запас по всем этим параметрам. Или использовать аренду у провайдера, который это заранее учёл.
Что это меняет для провайдеров и заказчиков
Если говорить про заказчиков, то компании, которым нужны GPU, делятся на два типа: те, кто знает свой стабильный спрос, и те, у кого нагрузка «прыгает». Первым иногда выгодно строить своё. Но это риск: может не хватить мощности, места, времени на заказ нового железа. Вторые переходят на гибкую аренду с поминутной или почасовой тарификацией.
Например, при обучении модели можно арендовать 4×A100 на 72 часа, а затем отключить. Провайдеры вроде CoreWeave или Lambda позволяют управлять этим через API. Это становится стандартом — и среди западных компаний, и в России.
Если раньше клиенты просили просто «мощный сервер», теперь они задают вопросы:
- Какая у чипа модель?
- Есть ли доступ через API?
- На каких услугах можно докинуть видеокарту на лету?
- Поддерживает ли площадка >30 кВт на стойку?
Если говорить про провайдеров, то специалисты должны:
- обеспечить стабильное электропитание на десятки кВт на стойку;
- спроектировать охлаждение (желательно жидкостное);
- поддерживать работу с топовыми картами (A100, H100, RTX 6000 и др.),
- уметь гибко конфигурировать ресурсы: менять конфигурации «на лету», подключать хранилища, давать API-доступ.
Требования к поддержке тоже меняются: команда должна быть в курсе того, как ведёт себя та или иная модель в нагрузке, какие конфигурации подходят под задачи инференса, рендера, генерации видео или текста.
Покупка или аренда: что выгоднее
Если компания точно знает объёмы, имеет доступ к площадке и уверена в стабильной нагрузке — можно рассматривать собственную инфраструктуру. Но это редкий случай. В большинстве сценариев, особенно если задачи проектные или нестабильные, аренда оказывается в разы выгоднее:
- не нужно покупать оборудование и ждать 2-3 месяца поставки;
- можно работать по поминутной/почасовой модели;
- можно масштабироваться по требованию, без апгрейдов и монтажей.
Аналитики Omdia прогнозируют, что к 2026 году до 65% всех GPU в инфраструктуре ИИ будут именно арендоваться.
Как не ошибиться при выборе GPU-сервера
Частая ошибка — взять слишком слабую карту. Например, для больших языковых моделей нужен объём видеопамяти от 40 до 100 ГБ на карту. RTX 3080 с 10 ГБ в таких случаях бесполезна. Также важно понимать: даже если «по характеристикам всё похоже», разные поколения GPU (Ampere, Hopper, Ada Lovelace) могут отличаться в разы по производительности.
Важно учитывать:
- объём видеопамяти;
- архитектуру (серверная или десктопная);
- охлаждение и энергопотребление;
- наличие API и возможности масштабирования.
Выбирая GPU-сервер у провайдера, лучше начать с тестовой аренды на 1-2 дня. Это помогает избежать переплат и понять реальную производительность под вашу задачу.
Как сократить расходы? Большинство задач ИИ и рендера носят периодический характер: вы обучаете модель — и мощность не нужна, запускаете инференс — и снова пауза. Поэтому имеет смысл:
- арендовать серверы почасово или посуточно;
- выключать их между сессиями (если провайдер это поддерживает);
- автоматизировать запуск через API.
Некоторые хостинги, включая российские, уже позволяют делать это из панели управления или даже с триггерами по событиям.
Вывод
GPU про возможность работать с современными ИИ-инструментами, видеоаналитикой и автоматизацией. Но GPU-сервер — штука капризная: без правильной инфраструктуры он не работает на полную.
Хостинг-провайдер, у которого есть опыт, инфраструктура и гибкая тарификация, становится стратегическим партнёром. Он помогает не «где-то запустить модель», а масштабировать бизнес без лишних затрат и простоев.
634 открытий4К показов



